982 resultados para códigos esféricos
Resumo:
R puede entenderse como un lenguaje de programación, como un potente software de análisis estadísticos o incluso como un generador de gráficos. Cualquiera de las tres acepciones es compatible con una definición de R. Estas páginas ofrecen al lector interesado y no iniciado en programación, los conceptos básicos y necesarios de la sintaxis de R que le permitirán trabajar en un entorno pensado para su uso con interfaces de códigos. Si bien es cierto que existen interfaces gráficas (R Commander) que facilitan el uso de R como software para el análisis de datos, no es menos cierto que la adquisición de destrezas en el manejo de unas normas de sintaxis básicas permitirán al usuario de R beneficiarse aún más de la potencia y de las ventajas que ofrece este entorno.
Resumo:
En este trabajo se realiza un estudio descriptivo-comparativo de la traducción de los subtítulos correspondientes al documental de divulgación científica titulado Hubble: 15 Years of Discovery (2005). Antes de realizar el análisis comparativo del corpus se sitúa la traducción comercial de este documento en el campo de estudio que abarca la traducción audiovisual, y en particular en el relativo a la subtitulación. El corpus textual seleccionado pertenece al género textual de la divulgación científica cuyas características se analizan. Tras abordar la cuestión de la selección del texto objeto de estudio, se detalla el proceso de recopilación del corpus, prestando especial atención a la elección del programa que se ha utilizado para la extracción de subtítulos a partir de la copia comercial del texto seleccionado (Hubble, 2005) en formato DVD. Se da cuenta de la compilación del corpus en forma de tabla que contiene el total de unidades bitextuales (subtítulos en inglés y español, identificados por los respectivos códigos de tiempo). El análisis del corpus bi-textual correspondiente a los subtítulos del documental (20 000 palabras, 715 SubtO y 724 SubtM), se efectúa mediante la clasificación de todos aquellos procedimientos de traducción observados. La taxonomía empleada para la clasificación de dichos procedimientos permite establecer cuatro grandes categorías: modulación, supresión, inequivalencia y adición. Dicha división cuatripartita da pie para establecer aquellas subcategorías que reflejan y ayudan a describir los procedimientos de traducción identificados en el proceso de análisis comparativo del corpus bitextual. Por razones de espacio, en la redacción final del presente trabajo se ofrece únicamente una muestra del conjunto total de ejemplos analizados para la realización de este estudio. Se pretende que dicha muestra represente por orden de incidencia, todos los fenómenos de traducción identificados y descritos, utilizando la taxonomía seleccionada, en el proceso de comparación del doblaje original inglés de Hubble y la traducción al español (subtítulos). Por último, se han recogido los datos relativos a la frecuencia de aparición de cada uno de los procedimientos de traducción para poder realizar una valoración global de los resultados obtenidos y relacionarlos con el género textual al que pertenece el documental objeto de estudio.
Resumo:
221 p.
Resumo:
Esta tese tem por objetivo propor uma estratégia de obtenção automática de parâmetros hidrodinâmicos e de transporte através da solução de problemas inversos. A obtenção dos parâmetros de um modelo físico representa um dos principais problemas em sua calibração, e isso se deve em grande parte à dificuldade na medição em campo desses parâmetros. Em particular na modelagem de rios e estuários, a altura da rugosidade e o coeficiente de difusão turbulenta representam dois dos parâmetros com maior dificuldade de medição. Nesta tese é apresentada uma técnica automatizada de estimação desses parâmetros através deum problema inverso aplicado a um modelo do estuário do rio Macaé, localizado no norte do Rio de Janeiro. Para este estudo foi utilizada a plataforma MOHID, desenvolvida na Universidade Técnica de Lisboa, e que tem tido ampla aplicação na simulação de corpos hídricos. Foi realizada uma análise de sensibilidade das respostas do modelo com relação aos parâmetros de interesse. Verificou-se que a salinidade é uma variável sensível a ambos parâmetros. O problema inverso foi então resolvido utilizando vários métodos de otimização através do acoplamento da plataforma MOHID a códigos de otimização implementados em Fortran. O acoplamento foi realizado de forma a não alterar o código fonte do MOHID, possibilitando a utilização da ferramenta computacional aqui desenvolvida em qualquer versão dessa plataforma, bem como a sua alteração para o uso com outros simuladores. Os testes realizados confirmam a eficiência da técnica e apontam as melhores abordagens para uma rápida e precisa estimação dos parâmetros.
Resumo:
Esta tese tem como objetivo apresentar uma nova atitude diante do ensino de produção de textos. Trata-se do resultado de uma experiência didático-pedagógica cuja meta é deflagrar nos discentes a competência em produção textual. Então, são descritas técnicas que, explorando as várias linguagens e códigos, estimulam os discentes à expressão verbal, em especial, à produção de textos escritos. Baseadas em pressupostos semiótico-linguísticos, as dinâmicas utilizadas nas aulas criam um espaço no qual a produção de textos se dá de forma lúdica, atraente, longe dos bloqueios que normalmente impedem que os alunos sejam proficientes na interação sociocomunicativa e, especificamente, na produção textual escrita em diferentes gêneros textuais. As três técnicas que originaram esta tese integram um conjunto de quinze propostas de atividades reunidas sob o título de Técnicas de Comunicação e Expressão TCE. Tais técnicas buscam desinibir e promover a expressão verbal escrita, em especial. TCE (ou a eletiva Semiótica & Linguagem) surge como um novo paradigma no ensino de produção de textos, trazendo, para os futuros professores, elementos motivadores para a prática textual, de forma a dinamizar esse momento que, quase sempre, é sinônimo de tortura, medo, insegurança e, consequentemente, fracasso
Resumo:
Esta dissertação tem por objetivo investigar o desenvolvimento de identidades de sujeitos diaspóricos em formas de narrativas nas quais a memória tem um papel crucial. As autobiografias e os memoirs têm despertado a curiosidade de muitas pessoas interessadas nos processos de construção de identidade de indivíduos que vivem em realidades singulares e nos relatos que dão sobre suas próprias vidas. Assim, o crescente interesse em diásporas e nos decorrentes deslocamentos fragmentários, provocados pelo distanciamento de raízes individuais e pelo contato com diferentes códigos culturais, poderiam legitimar as narrativas autobiográficas como maneiras estratégicas de sintetizar os nichos de identificação de autores e autoras que experimentaram uma ruptura diaspórica. Desta forma, ao analisar estes tipos de narrativas, deve-se estar atento às especificidades de algumas escritoras que passaram por processos diaspóricos e a como elas recorreram as suas memórias pessoais para, em termos literários, expressar suas subjetividades. Considerando todas essas idéias, tenciono usar Annie John e Lucy, de Jamaica Kincaid e When I Was Puero Rican e Almost a Woman, de Esmeralda Santiago como fontes de análise e amostras do desenvolvimento de identidades diaspóricas em narrativas autobiográficas
Resumo:
Um método espectronodal é desenvolvido para problemas de transporte de partículas neutras de fonte fixa, multigrupo de energia em geometria cartesiana na formulação de ordenadas discretas (SN). Para geometria unidimensional o método espectronodal multigrupo denomina-se método spectral Greens function (SGF) com o esquema de inversão nodal (NBI) que converge solução numérica para problemas SN multigrupo em geometria unidimensional, que são completamente livre de erros de truncamento espacial para ordem L de anisotropia de espalhamento desde que L < N. Para geometria X; Y o método espectronodal multigrupo baseia-se em integrações transversais das equações SN no interior dos nodos de discretização espacial, separadamente nas direções coordenadas x e y. Já que os termos de fuga transversal são aproximados por constantes, o método nodal resultante denomina-se SGF-constant nodal (SGF-CN), que é aplicado a problemas SN multigrupo de fonte fixa em geometria X; Y com espalhamento isotrópico. Resultados numéricos são apresentados para ilustrar a eficiência dos códigos SGF e SGF-CN e a precisão das soluções numéricas convergidas em cálculos de malha grossa.
Resumo:
124 p.
Resumo:
Os recentes avanços tecnológicos fizeram aumentar o nível de qualificação do pesquisador em epidemiologia. A importância do papel estratégico da educação não pode ser ignorada. Todavia, a Associação Brasileira de Pós-graduação em Saúde Coletiva (ABRASCO), no seu último plano diretor (2005-2009), aponta uma pequena valorização na produção de material didático-pedagógico e, ainda, a falta de uma política de desenvolvimento e utilização de software livre no ensino da epidemiologia. É oportuno, portanto, investir em uma perspectiva relacional, na linha do que a corrente construtivista propõe, uma vez que esta teoria tem sido reconhecida como a mais adequada no desenvolvimento de materiais didáticos informatizados. Neste sentido, promover cursos interativos e, no bojo destes, desenvolver material didático conexo é oportuno e profícuo. No âmbito da questão política de desenvolvimento e utilização de software livre no ensino da epidemiologia, particularmente em estatística aplicada, o R tem se mostrado um software de interesse emergente. Ademais, não só porque evita possíveis penalizações por utilização de software comercial sem licença, mas também porque o franco acesso aos códigos e programação o torna uma ferramenta excelente para a elaboração de material didático em forma de hiperdocumentos, importantes alicerces para uma tão desejada interação docentediscente em sala de aula. O principal objetivo é desenvolver material didático em R para os cursos de bioestatística aplicada à análise epidemiológica. Devido a não implementação de certas funções estatísticas no R, também foi incluída a programação de funções adicionais. Os cursos empregados no desenvolvimento desse material fundamentaram-se nas disciplinas Uma introdução à Plataforma R para Modelagem Estatística de Dados e Instrumento de Aferição em Epidemiologia I: Teoria Clássica de Medidas (Análise) vinculadas ao departamento de Epidemiologia, Instituto de Medicina Social (IMS) da Universidade do Estado do Rio de Janeiro (UERJ). A base teórico-pedagógica foi definida a partir dos princípios construtivistas, na qual o indivíduo é agente ativo e crítico de seu próprio conhecimento, construindo significados a partir de experiências próprias. E, à ótica construtivista, seguiu-se a metodologia de ensino da problematização, abrangendo problemas oriundos de situações reais e sistematizados por escrito. Já os métodos computacionais foram baseados nas Novas Tecnologias da Informação e Comunicação (NTIC). As NTICs exploram a busca pela consolidação de currículos mais flexíveis, adaptados às características diferenciadas de aprendizagem dos alunos. A implementação das NTICs foi feita através de hipertexto, que é uma estrutura de textos interligados por nós ou vínculos (links), formando uma rede de informações relacionadas. Durante a concepção do material didático, foram realizadas mudanças na interface básica do sistema de ajuda do R para garantir a interatividade aluno-material. O próprio instrutivo é composto por blocos, que incentivam a discussão e a troca de informações entre professor e alunos.
Resumo:
Os discursos políticos educacionais acerca da institucionalização da instrução elementar em Minas Gerais atravessaram todo o século XIX, apontando também como uma preocupação republicana, ora pelo discurso de impraticabilidade e ferimento aos direitos civis, ora pela defesa de seu caráter estatal e da argumentação de função civilizatória e disciplinar da população. Nesse sentido, pensar a compulsoriedade do ensino demanda uma compreensão da sua função social, o conhecimento dos agentes envolvidos e de seus interesses sobre tal medida de governo. De acordo com os defensores da obrigatoriedade do ensino no século XIX e início do XX, o intuito da educação seria formar cidadãos civilizados e instruídos. Tal perspectiva estava relacionada a um projeto de sociedade e de nação brasileira, para o qual era imprescindível formar, desde a infância, um povo disciplinado, um povo bem governado. O nosso objetivo foi analisar o tema da obrigatoriedade do ensino a partir do conceito foucaultiano de governamentalidade. Problematizando a ideia de que universalizar o acesso à educação representava apenas uma iniciativa de garantia de direitos, a hipótese que defendemos consiste na ideia de que o ensino obrigatório pode ter sido perspectivado enquanto uma estratégia de governo dos outros, de controle dos sujeitos. Partindo desse pressuposto, como efeito esperado, seria possível obter sujeito com outras atitudes, as atitudes derivadas da coação promovida pela escola. Ao legitimar a escola, o dispositivo da obrigatoriedade funcionaria como estratégia e produziria positividades. Por meio da escola e de seu caráter compulsório, tratava-se de atingir e gerir a população dos pequenos, de modo a equipá-la com os códigos mínimos do mundo civilizado, com os efeitos disciplinares correlatos.Para tanto, analisamos a legislação de Minas Gerais, impressos mineiros (Correio de Minas, Jornal do Commercio, Minas Livre, O Granbery) e a bibliografia acerca da obrigatoriedade da instrução primária, a fim de identificar traços do debate no Império e na passagem para a República, os quais foram problematizados à luz daquele conceito. A partir dessa discussão, concluímos que a obrigatoriedade do ensino é mais bem compreendida se analisada em outro registro que não seja meramente jurídico. Tal inferência aponta para a ampliação do quadro analítico acerca dessa política compulsória e dos interesses de Estado em torno dela.
Resumo:
Este trabalho trata do projeto pedagógico do Monsenhor Álvaro Negromonte, a partir de um conjunto de impressos pedagógicos publicados entre 1936 e 1964, destinados a públicos distintos. Reconhecido, entre seus pares, como um dos grandes líderes da renovação do ensino religioso, nos anos de 1930, Álvaro Negromonte envolveu-se profundamente nos debates educacionais de então, produzindo um conjunto variado de impressos pedagógicos que elegiam como alvos privilegiados a escola e as famílias. Organizados em diferentes formatos, os impressos publicados pelo Monsenhor Álvaro Negromonte para as professoras e para as famílias são analisados, nesta pesquisa, como parte de uma Biblioteca Pedagógica que foi sendo construída ao longo de dezoito anos, voltada, também, para a renovação do ensino religioso. O objetivo é de buscar compreender os pontos de contato que entrelaçavam esses projetos, de formação de professoras-catequistas e educação das famílias, articulando-os entre si e a outro maior, voltado para a recatolicização da sociedade. As duas classes de impressos utilizadas pelo padre, livros e boletins, endereçadas às escolas e às famílias são entendidas nesta pesquisa como objetos culturais, tomados como unidades de análise em sua produção, considerando suas formas e conteúdos. As práticas educativas analisadas nesta pesquisa foram entendidas como práticas culturais que visaram estabelecer novos códigos de valores e comportamentos, criaram outras representações para o educador, associando as contribuições pedagógicas dos novos tempos aos saberes elementares da fé católica. Os dois projetos aqui analisados se complementam e apontam para a importância que a figura da mulher assumiu no trabalho de Negromonte. Fomentado no bojo da Ação Católica, o trabalho desenvolvido pelo padre passava, primeiramente, pela educação da fé das mulheres que, estivessem exercendo sua função de professoras, na escola, ou de mães, em suas casas, iam sendo formadas para atuar na vida eclesial e social brasileira.
Resumo:
O foco central desta tese consiste em procurar compreender um fenômeno que se verifica na atualidade em torno das imagens ultra-sonográficas fetais. O que era a princípio e em princípio uma tecnologia de imagem médica, inventada com propósitos diagnósticos, gradualmente transformou-se em objeto de consumo e lazer. Para investigar o fenômeno, a pesquisa teórica aborda como foram construídos o olhar e o observador modernos, e de que modo as tecnologias de imageamento médico incidem na construção social do corpo. Outro aspecto teórico consiste na investigação, de um ponto de vista sócio-histórico, acerca da produção da gravidez e do feto como temas médicos, e de que modo a tecnologia de ultra-som aplicada à obstetrícia está situada na articulação de vários processos: o da construção de um novo olhar, o das reconfigurações do corpo, o da medicalização da gestação e do feto e, finalmente, o da construção do feto como Pessoa antes de seu nascimento. Estudos antropológicos produzidos no exterior, ao longo da década de 1990, apontaram que o fenômeno envolvendo as imagens fetais encontrava-se inscrito nos e delimitado pelos códigos socioculturais específicos de onde ocorriam. A inexistência de pesquisas acerca do tema, no contexto brasileiro, foi o ponto de partida para uma investigação empírica. Foi realizada uma observação antropológica de ultra-sonografias obstétricas, em abordagem etnográfica, em três clínicas privadas de imagem, ao longo de 2003, no Rio de Janeiro, visando compreender como tal fenômeno se dava, de que modo era produzido e significado pelos atores e quais os desdobramentos de tais práticas, modelados por especificidades culturais locais. O trabalho de campo evidenciou que a ultra-sonografia obstétrica caracteriza-se por ser uma tecnologia de imagem interativa, em contraste com outras técnicas de imageamento médico, uma peculiaridade que propicia a construção de diversos significados a partir das imagens fetais cinzentas e esfumaçadas. A produção do prazer de ver o feto é a pedra de toque que une o útil ao agradável, e o consumo de imagens é um ponto de articulação de diversas questões expostas ao longo da tese. Pode-se pensar nesta situação como parte de um panopticismo que devassa corpos femininos e fetais, em um mesmo processo normatizando-os e construindo novos sujeitos calcados em corporalidades virtuais.
Resumo:
Este trabalho tem por objetivo analisar os usos e as formas de apropriação de uma biblioteca pública, localizada no bairro de Jardim América, no subúrbio da cidade do Rio de Janeiro. A partir da observação direta e do trabalho de campo de caráter etnográfico, buscou-se evidenciar a dimensão dos conflitos advindos das distintas formas de representação e apropriação de um equipamento público de uso coletivo, num contexto periférico. O espaço em questão, por localizar-se no limite entre o bairro formal e a Favela do Dique, se apresenta como um locus privilegiado de observação das distintas formas de apropriação não só do acervo literário disponibilizado como também das distintas práticas de uso do espaço e representações sociais em jogo, sobretudo, a partir das oposições entre bairrofavela, centro-periferia, público-privado, cultura de elite-cultura popular, que se manifestam em situações de exclusão e conflito, um ponto de observação e reflexão crítica das relações sociais ali vivenciadas cotidianamente. Nesse contexto, buscase também analisar em que medida a proposta de um espaço de sociabilidade entre os grupos sociais em questão, pode se tornar um diferencial no acesso aos códigos da literatura infantil, contribuindo para o desenvolvimento do hábito da leitura nesse universo social.
Resumo:
Neste trabalho discutimos vários sistemas de dígitos verificadores utilizados no Brasil, muitos deles semelhantes a esquemas usados mundialmente, e fazemos uma análise da sua capacidade de detectar os diversos tipos de erros que são comuns na entrada de dados em sistemas computacionais. A análise nos mostra que os esquemas escolhidos constituem decisões subotimizadas e quase nunca obtêm a melhor taxa de detecção de erros possível. Os sistemas de dígitos verificadores são baseados em três teorias da álgebra: aritmética modular, teoria de grupos e quasigrupos. Para os sistemas baseados em aritmética modular, apresentamos várias melhorias que podem ser introduzidas. Desenvolvemos um novo esquema ótimo baseado em aritmética modular base 10 com três permutações para identificadores de tamanho maior do que sete. Descrevemos também o esquema Verhoeff, já antigo, mas pouquíssimo utilizado e que também é uma alternativa de melhoria para identificadores de tamanho até sete. Desenvolvemos ainda, esquemas ótimos para qualquer base modular prima que detectam todos os tipos de erros considerados. A dissertação faz uso ainda de elementos da estatística, no estudo das probabilidades de detecção de erros e de algoritmos, na obtenção de esquemas ótimos.
Resumo:
Trocadores de calor são equipamentos muito utilizados na indústria de processos com o objetivo de modificar a temperatura e/ou o estado físico de correntes materiais. Uma rede de trocadores de calor pode ser definida como um grupo de trocadores de calor interligados, a fim de reduzir as necessidades de energia de um sistema. No entanto, durante a operação de uma rede, a eficiência térmica dos trocadores de calor diminui devido à deposição. Esse efeito promove o aumento dos custos de combustível e das emissões de carbono. Uma alternativa para mitigar este problema baseia-se no estabelecimento de uma programação das limpezas dos trocadores de calor durante a operação de rede. Este tipo de abordagem ocasiona uma situação na qual ocorre um conflito de escolha: a limpeza de um trocador de calor pode recuperar a sua eficiência térmica, mas implica custos adicionais, tais como, mão-de-obra, produtos químicos, etc. Além disso, durante a limpeza, o trocador de calor tem de ser contornado por uma corrente de by-pass, o que aumenta temporariamente o consumo de energia. Neste contexto, o presente trabalho tem como objetivo explorar diferentes técnicas de otimização envolvendo métodos estocásticos e heurísticos. Com este objetivo foi desenvolvido um conjunto de códigos computacionais integrados que envolvem a simulação pseudo-estacionária do comportamento da rede relacionado com incrustações e a otimização da programação das limpezas deste tipo de sistema. A solução do problema indica os períodos de tempo para a limpeza de cada trocador de calor. Na abordagem estocástica empregada, os parâmetros do algoritmo genético, como probabilidade de crossover e probabilidade de mutação, foram calibrados para o presente problema. A abordagem heurística desenvolvida se deu através da sequência do conjunto de movimentos zero, um e dois. De forma alternativa, desenvolveu-se a metodologia heurística recursiva na qual os conjuntos de movimentos um e dois foram empregados recursivamente. Também foi desenvolvida a abordagem híbrida que consistiu em diferentes combinações da metodologia estocástica e heurística. A análise comparativa entre as metodologias empregadas teve como objetivo avaliar a abordagem mais adequada para o presente problema da programação das limpezas em termos de função objetivo e esforço computacional. O desempenho da abordagem proposta foi explorado através de uma série de exemplos, incluindo uma refinaria real brasileira. Os resultados foram promissores, indicando que as técnicas de otimização analisadas neste trabalho podem ser abordagens interessantes para operações que envolvam redes de trocadores de calor. Dentre as abordagens de otimização analisadas, a metodologia heurística desenvolvida no presente trabalho apresentou os melhores resultados se mostrando competitiva frente às abordagens comparadas da literatura