353 resultados para missões jesuíticas
Resumo:
A presente tese busca analisar as políticas educacionais desenvolvidas durante o período de 1937 à 1945 e 1951 a 1954, período em o antigo estado do Rio de Janeiro esteve governado pelo Comandante Ernani do Amaral Peixoto, que foi interventor federal durante todo o período do Estado Novo e depois retornou ao governo do estado como governador eleito. Este longo período a frente do estado do Rio de Janeiro proporcionou o desenvolvimento de uma política educacional continuada.Para compreender a dimensão das suas ações em relação à política educacional torna-se imprescindível analisar a figura do Comandante Amaral Peixoto, a sua participação na política fluminense, a biografia e as redes de sociabilidade construídas por ele. Este estudo importa em refletir sobre suas escolhas e investimentos na área da educação, além de buscar entender que influências sofreu para implantar as medidas que politicamente fez valer no estado, principalmente no âmbito da educação. Investigo a política educacional desenvolvida no período citado frisando especialmente a política desenvolvida para a escola do trabalho, as escolas superiores, a educação especial, a educação de adultos, a educação rural (escolas típicas rurais e praianas) e a educação física, abordando ainda o desenvolvimento da cultura nas ações relacionadas às missões culturais fluminenses, ao cinema educativo e museus que estavam ligados a educação nesta época, evidencio também a questão pedagógica através da analise da verificação de rendimentos e dos programas escolares desenvolvidos pelo departamento de educação. O papel do professor fluminense no desenvolvimento das políticas educacionais foi discutido a partir da formação de professores e do papel do estado do Rio como referência modernizadora na educação, traçando o perfil do professor fluminense nas décadas de 1930, 1940 e 1950, examinando a formação inicial destes professores, a formação continuada que era oferecida a eles e as correntes pedagógicas que influenciaram este professor na sua formação
Resumo:
No contexto da expansão ultramarina portuguesa no Oriente, a região do Maduré, localizada ao sul da Índia, também vivenciou a experiência política e, principalmente, religiosa a partir da presença da Companhia de Jesus nesse espaço. Em 1596, o jesuíta português Gonçalo Fernandes Trancoso tornou-se responsável por cuidar da comunidade cristã existente no Maduré, ganhando como companheiro de missão, em 1606, o jesuíta italiano Roberto de Nobili. A presente dissertação tem por objetivo central promover uma análise acerca das atuações missionárias dos jesuítas Gonçalo Fernandes Trancoso e Roberto de Nobili na missão do Maduré, no início do século XVII. Seus trabalhos missionários podem ser compreendidos a partir do estudo de suas narrativas sobre os costumes e práticas bramânicas, sendo possível identificar, para além das diferentes estratégias de conversão utilizadas por ambos inacianos, o modo como estes articularam seus conhecimentos sobre a sociedade indiana e o hinduísmo com o desenvolvimento de um projeto de conversão. Assim, destaca-se a falta homogeneidade no interior da Companhia de Jesus no que toca a práticas e métodos missionários.
Resumo:
Esta pesquisa analisa as perspectivas adotadas para uma educação integral implementadas pela cidade de Nova Iguaçu no período de 2006 a 2013, mais especificamente tendo em tela a implementação do Programa Bairro-Escola (2006 a 2010) e o Programa Mais Educação (2008 a 2013) oriundo do governo federal. A partir do conceito de educação integral como uma perspectiva de aprendizagem/apreensão de experiências e conhecimentos complementares fundamentados no social, em um contexto de relações histórico-sociais foi possível revisitar os Programas Bairro-Escola e o Programa Mais Educação. Foram consideradas as concepções de tempo integral e educação integral dos autores Coelho (1997, 2009, 2012), Cavaliere (2002, 2007, 2009, 2010) e Algebaile (2004, 2009, 2013). A metodologia adotada considerou a pesquisa qualitativa valendo-se de pesquisa documental, analisando a legislação das esferas governamentais, manuais e orientações municipais, utilizando o Ciclo de Políticas de Ball & Bowe (1992), baseado nos estudos de Mainardes (2006). A luz das reflexões permeadas pelas concepções sócio historicamente referenciada e a de proteção social, em suas especificidades, pode-se considerar os aspectos da apropriação da cultura e da ciência acumuladas historicamente, como condição para atuação protagonizadora à reorganização crítica de tal cultura e ciência, como também a visão considerada como acolhimento e integração social, atendendo primordialmente, a missões sociais de apoio à criança. O resultado do estudo remete a constatação de que a iniciativa do Programa Bairro-Escola diferentemente da proposta de uma educação integral em tempo integral do Programa Mais Educação, constituiu-se em um programa ousado e significativo e caracterizou-se em uma visão moderna de acordo com seus propósitos de educação integral. O Programa Bairro-Escola em sua formulação apresenta tendência de uma educação integral com vistas a uma formação socialmente partícipe, contextualizada no momento histórico e ofertada a todos, já o Programa Mais Educação apresenta tendências de uma rede de proteção social limitando-se ao atendimento de crianças e adolescentes em situações de vulnerabilidade social.
Resumo:
Durante muito tempo, os membros das câmaras de vereadores brasileiras tiveram suas atuações políticas limitadas à circunscrição territorial dos seus respectivos municípios. Isso se deve muito à forma de organização e à outorga de competências conferidas aosentes federativos. O modelo de federação criado no Brasil apresenta peculiaridades em relação a outros modelos existentes no mundo. Uma das mais evidentes é o reconhecimento constitucional dos municípios como ente integrante de sua estrutura, dotando-os de autonomia em relação aos Estados-membros e à União, bem como conferidas atribuições políticas e administrativas próprias. Esse status transformou consideravelmente o papel das municipalidades brasileiras após o advento da Constituição de 1988. Mas, infelizmente, a forma de distribuição dos recursos públicos do país concentra grande parte das receitas nos entes federativos de maior dimensão, em especial da União. Essa desproporcionalidade impede que as municipalidades exerçam, de forma plena, todas as missões que lhes foram outorgadas. Em consequência,eles sentem o peso das várias incumbências a serem desenvolvidas, sem que possuam as verbas suficientes para isso. Uma das soluções para minimizar essa situação está na iniciativa dese integrarem a outros entes para que, de forma conjunta, concretizem as políticas públicas necessárias à população. Atualmente, verifica-se que muitos problemas existentes nos municípios são comuns a todos que estejam situados em determinada região. Esse fenômeno ocorre principalmente quando a expansão urbana gerou as conurbações, interligando os municípios de uma forma tal que acabam compartilhando, os anseios e mazelas. Prevendo essa situação, o constituinte brasileiro de 1988 outorgouaos Estados-membros a prerrogativa de instituir as regiões metropolitanas e outras formas de unidade territorial urbana.Possibilitou, comoisso, a criação de uma organização administrativa que pudesse desenvolverações estatais de dimensão regional, conjugando os esforços dos entes federativos envolvidos para a consecução do bem comum. Aproveitando a existência dessas regionalidades administrativas, surgiunas câmaras de vereadores o anseio de ampliar seu campo de atuação para levar à discussão regional os temas inerentes a todos os municípios que as integram.Assim, criaram-se em algumas partes do país, os parlamentos metropolitanos.Consistem em um fórum de discussão e atuação integrada das edilidades municipais inseridas nessas unidades territoriais urbanas. A presente pesquisa tem como objeto central analisar a formação e atuação desses parlamentos, bem como os resultados já alcançados por alguns, além de sugerir propostas que venham fortalecer o seu papel. Essas instituições podem contribuir consideravelmente para o aperfeiçoamento da denominada governança interfederativa das regiões metropolitanas, nos termos que são propostos pelo Estatuto das Metrópoles (Lei Federal n. 13.089/15). Trata-sede um vetor de colaboração e associação entre os entes e órgãos de poder integrantes da região metropolitana, em busca de concretizar as funções públicas de interesse comumem prol da população nela inserida.
Resumo:
Wistar rats, treated with the GABA(A) receptor agonist muscimol, were used to investigate the role of the hippocampal-prelimbic cortical (Hip-PLC) circuit in spatial learning in the Morris water maze task, and in passive avoidance learning in the step-thr
Resumo:
Trabalho de Dissertação apresentado à Universidade Fernando Pessoa como parte dos requisitos para a obtenção do grau de Mestre em Cooperação Internacional e Desenvolvimento
Resumo:
Failing to find a tumor in an x-ray scan or a gun in an airport baggage screening can have dire consequences, making it fundamentally important to elucidate the mechanisms that hinder performance in such visual searches. Recent laboratory work has indicated that low target prevalence can lead to disturbingly high miss rates in visual search. Here, however, we demonstrate that misses in low-prevalence searches can be readily abated. When targets are rarely present, observers adapt by responding more quickly, and miss rates are high. Critically, though, these misses are often due to response-execution errors, not perceptual or identification errors: Observers know a target was present, but just respond too quickly. When provided an opportunity to correct their last response, observers can catch their mistakes. Thus, low target prevalence may not be a generalizable cause of high miss rates in visual search.
Resumo:
A review of polymer cure models used in microelectronics packaging applications reveals no clear consensus of the chemical rate constants for the cure reactions, or even of an effective model. The problem lies in the contrast between the actual cure process, which involves a sequence of distinct chemical reactions, and the models, which typically assume only one, (or two with some restrictions on the independence of their characteristic constants.) The standard techniques to determine the model parameters are based on differential scanning calorimetry (DSC), which cannot distinguish between the reactions, and hence yields results useful only under the same conditions, which completely misses the point of modeling. The obvious solution is for manufacturers to provide the modeling parameters, but failing that, an alternative experimental technique is required to determine individual reaction parameters, e.g. Fourier transform infra-red spectroscopy (FTIR).
Resumo:
A review of polymer cure models used in microelectronics packaging applications reveals no clear consensus of the chemical rate constants for the cure reactions, or even of an effective model. The problem lies in the contrast between the actual cure process, which involves a sequence of distinct chemical reactions, and the models, which typically assume only one, (or two with some restrictions on the independence of their characteristic constants.) The standard techniques to determine the model parameters are based on differential scanning calorimetry (DSC), which cannot distinguish between the reactions, and hence yields results useful only under the same conditions, which completely misses the point of modeling. The obvious solution is for manufacturers to provide the modeling parameters, but failing that, an alternative experimental technique is required to determine individual reaction parameters, e.g. Fourier transform infra-red spectroscopy (FTIR).
Resumo:
Background and purpose: Radiotherapy is widely used to palliate local symptoms in non-small-cell lung cancer. Using conventional X-ray simulation, it is often difficult to accurately localize the extent of the tumour. We report a randomized, double blind trial comparing target localization with conventional and virtual simulation.Methods: Eighty-six patients underwent both conventional and virtual simulation. The conventional simulator films were compared with digitally reconstructed radiographs (DRRs) produced from the computed tomography (CT) data. The treatment fields defined by the clinicians using each modality were compared in terms of field area, position and the implications for target coverage.Results: Comparing fields defined by each study arm, there was a major mis-match in coverage between fields in 66.2% of cases, and a complete match in only 5.2% of cases. In 82.4% of cases, conventional simulator fields were larger (mean 24.5+/-5.1% (95% confidence interval)) than CT-localized fields, potentially contributing to a mean target under-coverage of 16.4+/-3.5% and normal tissue over-coverage of 25.4+/-4.2%.Conclusions: CT localization and virtual simulation allow more accurate definition of the target volume. This could enable a reduction in geographical misses, while also reducing treatment-related toxicity.
Resumo:
Speeding up sequential programs on multicores is a challenging problem that is in urgent need of a solution. Automatic parallelization of irregular pointer-intensive codes, exempli?ed by the SPECint codes, is a very hard problem. This paper shows that, with a helping hand, such auto-parallelization is possible and fruitful. This paper makes the following contributions: (i) A compiler framework for extracting pipeline-like parallelism from outer program loops is presented. (ii) Using a light-weight programming model based on annotations, the programmer helps the compiler to ?nd thread-level parallelism. Each of the annotations speci?es only a small piece of semantic information that compiler analysis misses, e.g. stating that a variable is dead at a certain program point. The annotations are designed such that correctness is easily veri?ed. Furthermore, we present a tool for suggesting annotations to the programmer. (iii) The methodology is applied to autoparallelize several SPECint benchmarks. For the benchmark with most parallelism (hmmer), we obtain a scalable 7-fold speedup on an AMD quad-core dual processor. The annotations constitute a parallel programming model that relies extensively on a sequential program representation. Hereby, the complexity of debugging is not increased and it does not obscure the source code. These properties could prove valuable to increase the ef?ciency of parallel programming.
Resumo:
Bank conflicts can severely reduce the bandwidth of an interleaved multibank memory and conflict misses increase the miss rate of a cache or a predictor. Both occurrences are manifestations of the same problem: Objects which should be mapped to different indices are accidentally mapped to the same index. Suitable chosen hash functions can avoid conflicts in each of these situations by mapping the most frequently occurring patterns conflict-free. A particularly interesting class of hash functions are the XOR-based hash functions, which compute each set index bit as the exclusive-or of a subset of the address bits. When implementing an XOR-based hash function, it is extremely important to understand what patterns are mapped conflict-free and how a hash function can be constructed to map the most frequently occurring patterns without conflicts. Hereto, this paper presents two ways to reason about hash functions: by their null space and by their column space. The null space helps to quickly determine whether a pattern is mapped conflict-free. The column space is more useful for other purposes, e. g., to reduce the fan-in of the XOR-gates without introducing conflicts or to evaluate interbank dispersion in skewed-associative caches. Examples illustrate how these ideas can be applied to construct conflict-free hash functions.
Resumo:
Caches hide the growing latency of accesses to the main memory from the processor by storing the most recently used data on-chip. To limit the search time through the caches, they are organized in a direct mapped or set-associative way. Such an organization introduces many conflict misses that hamper performance. This paper studies randomizing set index functions, a technique to place the data in the cache in such a way that conflict misses are avoided. The performance of such a randomized cache strongly depends on the randomization function. This paper discusses a methodology to generate randomization functions that perform well over a broad range of benchmarks. The methodology uses profiling information to predict the conflict miss rate of randomization functions. Then, using this information, a search algorithm finds the best randomization function. Due to implementation issues, it is preferable to use a randomization function that is extremely simple and can be evaluated in little time. For these reasons, we use randomization functions where each randomized address bit is computed as the XOR of a subset of the original address bits. These functions are chosen such that they operate on as few address bits as possible and have few inputs to each XOR. This paper shows that to index a 2(m)-set cache, it suffices to randomize m+2 or m+3 address bits and to limit the number of inputs to each XOR to 2 bits to obtain the full potential of randomization. Furthermore, it is shown that the randomization function that we generate for one set of benchmarks also works well for an entirely different set of benchmarks. Using the described methodology, it is possible to reduce the implementation cost of randomization functions with only an insignificant loss in conflict reduction.
Resumo:
Embedded processors are used in numerous devices executing dedicated applications. This setting makes it worthwhile to optimize the processor to the application it executes, in order to increase its power-efficiency. This paper proposes to enhance direct mapped data caches with automatically tuned randomized set index functions to achieve that goal. We show how randomization functions can be automatically generated and compare them to traditional set-associative caches in terms of performance and energy consumption. A 16 kB randomized direct mapped cache consumes 22% less energy than a 2-way set-associative cache, while it is less than 3% slower. When the randomization function is made configurable (i.e., it can be adapted to the program), the additional reduction of conflicts outweighs the added complexity of the hardware, provided there is a sufficient amount of conflict misses.
Resumo:
Randomising set index functions can reduce the number of conflict misses in data caches by spreading the cache blocks uniformly over all sets. Typically, the randomisation functions compute the exclusive ors of several address bits. Not all randomising set index functions perform equally well, which calls for the evaluation of many set index functions. This paper discusses and improves a technique that tackles this problem by predicting the miss rate incurred by a randomisation function, based on profiling information. A new way of looking at randomisation functions is used, namely the null space of the randomisation function. The members of the null space describe pairs of cache blocks that are mapped to the same set. This paper presents an analytical model of the error made by the technique and uses this to propose several optimisations to the technique. The technique is then applied to generate a conflict-free randomisation function for the SPEC benchmarks. (C) 2003 Elsevier Science B.V. All rights reserved.