973 resultados para First-principles calculation
Resumo:
O artigo analisa o National Performance Review (NPR), programa de reforma administrativa na gest??o do presidente Clinton, implementado em 1993, e que traduz o novo paradigma empreendedorialista proposto para o funcionamento da burocracia do governo federal americano. Na primeira parte s??o apresentados os princ??pios, objetivos e natureza da agenda, ressaltando-se as suas bases conceituais. Segue-se uma an??lise sobre a forma????o da agenda e a seq????ncia da sua implementa????o. A 3?? parte compreende uma vis??o da din??mica pol??tico-institucional, com destaque para as tens??es observadas entre o Legislativo e o Executivo, e o impacto destas nas mudan??as da agenda. Na ??ltima se????o, apresenta-se um painel emp??rico sobre alguns dos resultados em determinadas ag??ncias e departamentos do Governo, pretendendo-se oferecer contribui????es ao processo de reformas administrativas atualmente em curso no Brasil.
Resumo:
The objective of this paper is to definite Historicity in Economic Sciences applying the principles of Entropy and methodological indeterminism. This implies the definition of two kinds of economic universes: one characterized by ergodicity and reversibility of Time and processes and the other by the opposite properties. The first part will deal with the construction of the subject of study and the nature of the proper analysis to these two universes. Taking such dichotomy into account, the second part will examine its implications as regards to the nature of equilibrium, the properties of stability and instability and the closure of the systems.
Resumo:
This work discusses the use of optical flow to generate the sensorial information a mobile robot needs to react to the presence of obstacles when navigating in a non-structured environment. A sensing system based on optical flow and time-to-collision calculation is here proposed and experimented, which accomplishes two important paradigms. The first one is that all computations are performed onboard the robot, in spite of the limited computational capability available. The second one is that the algorithms for optical flow and time-to-collision calculations are fast enough to give the mobile robot the capability of reacting to any environmental change in real-time. Results of real experiments in which the sensing system here proposed is used as the only source of sensorial data to guide a mobile robot to avoid obstacles while wandering around are presented, and the analysis of such results allows validating the proposed sensing system.
Resumo:
Investiga-se a convergência de conjuntos de bases em direção ao limite numérico da energia Hartree-Fock (HF) total para as seqüências hierárquicas dos conjuntos de bases XZP e ccpVXZ. Para as duas hierarquias, melhoramentos significativos são obtidos com cada incremento em X. Para estimar o limite do conjunto de base completo, uma forma exponencial foi usada. Entre as várias aproximações consideradas aqui, uma extrapolação exponencial de três parâmetros aplicada aos resultados TZP, QZP e 5ZP deu os limites do conjunto de bases mais precisos. Em adição, energias HF dos orbitais moleculares ocupados mais altos de algumas moléculas diatômicas foram calculadas com o conjunto 5ZP e comparadas com as correspondentes obtidas com o conjunto cc-pV5Z e com um método numérico HF.
Resumo:
Este artigo tem como objetivo realizar um exercício analítico do modo de fazer da Política Nacional de Humanização (PNH) sobre a função apoio institucional, com base em diferentes dispositivos, diretrizes e princípios. O texto está dividido em três partes: na primeira, traz reflexões acerca da concepção de humano e humanismo que fundamenta as análises; a segunda busca ampliar o debate sobre a indissociabilidade entre atenção e gestão e o modo de fazer apoio institucional; a terceira aborda a indissociabilidade entre a produção de serviços e produção de sujeitos, e encaminha a discussão dessas três partes que se desdobram em outros planos de análise. Ressalta, em todo o texto, a aposta na inclusão dos diferentes sujeitos e na análise e gestão coletiva dos processos de trabalho como estratégia para criar desestabilizações produtivas e práticas de humanização dos serviços de Saúde.
Resumo:
O objetivo da pesquisa é descrever o cenário da imigração germânica no século XIX, tratando também, de trilhar o caminho da educação por meio de educadores e das comunidades na Colônia de Santa Leopoldina, criada em 1857, na Província do Espírito Santo, considerando 50 anos a partir do início da imigração (1857-1907). A pesquisa histórica ancorou-se em consultas a documentos oficiais do Império, documentos e relatórios oficiais dos Presidentes da Província do Espírito Santo, jornais de circulação da época, fotografias, mapas geográficos, mapas estatísticos, livros didáticos antigos e livros de autores que abordaram o processo imigratório do Espírito Santo. O diálogo com Marc Bloch ajudou a entender essa multiplicidade de documentos, na complexa relação entre o passado e o presente da educação do Espírito Santo. O trabalho apresenta uma trajetória do imigrante germânico vindo da Europa até a ex-colônia e como a administração da província tratou a imigração e a educação. O ensino primário iniciou-se a partir de iniciativas públicas e particulares. Foram identificados as primeiras escolas e os nomes de muitos professores que atuaram no período estudado. Os livros utilizados nas escolas das comunidades teuto-brasileiras eram oriundos da Alemanha e posteriormente foram produzidos no sul do Brasil. Entre os livros escritos em alemão encontrados destacam-se o livro texto de alfabetização „Lese – Schule I für Deutsche Kinder in Brasilien‟, editado na Alemanha no final do século XIX, de autoria do diretor de uma escola particular em Santa Leopoldina, Albert Richard Dietze, e o primeiro volume do livro de matemática „Rechenbuch für Deutsch-Brasilianische Volksschulen‟, de Ferdinand Hackbart, Konrad Glaus e Hermann Lange. Foi feita uma análise sob os aspectos físicos e formais, o processo de ensino e os conteúdos do livro de matemática. A análise evidenciou que a proposta de ensino apoia-se no “cálculo mental” e o escrito, com a repetição dos conteúdos, envolvendo o treino intensivo. Os conceitos de matemática são apresentados partindo de problemas com situações concretas do aluno para a aquisição de competências necessárias para inserir o aluno em sua comunidade. Levando-se em conta que o livro foi editado em 1906, conclui-se que se trata de uma obra relevante com uma proposta de ensino que se manteve presente nos livros didáticos de matemática até os dias atuais.
Resumo:
O presente trabalho objetiva avaliar o desempenho do MECID (Método dos Elementos de Contorno com Interpolação Direta) para resolver o termo integral referente à inércia na Equação de Helmholtz e, deste modo, permitir a modelagem do Problema de Autovalor assim como calcular as frequências naturais, comparando-o com os resultados obtidos pelo MEF (Método dos Elementos Finitos), gerado pela Formulação Clássica de Galerkin. Em primeira instância, serão abordados alguns problemas governados pela equação de Poisson, possibilitando iniciar a comparação de desempenho entre os métodos numéricos aqui abordados. Os problemas resolvidos se aplicam em diferentes e importantes áreas da engenharia, como na transmissão de calor, no eletromagnetismo e em problemas elásticos particulares. Em termos numéricos, sabe-se das dificuldades existentes na aproximação precisa de distribuições mais complexas de cargas, fontes ou sorvedouros no interior do domínio para qualquer técnica de contorno. No entanto, este trabalho mostra que, apesar de tais dificuldades, o desempenho do Método dos Elementos de Contorno é superior, tanto no cálculo da variável básica, quanto na sua derivada. Para tanto, são resolvidos problemas bidimensionais referentes a membranas elásticas, esforços em barras devido ao peso próprio e problemas de determinação de frequências naturais em problemas acústicos em domínios fechados, dentre outros apresentados, utilizando malhas com diferentes graus de refinamento, além de elementos lineares com funções de bases radiais para o MECID e funções base de interpolação polinomial de grau (um) para o MEF. São geradas curvas de desempenho através do cálculo do erro médio percentual para cada malha, demonstrando a convergência e a precisão de cada método. Os resultados também são comparados com as soluções analíticas, quando disponíveis, para cada exemplo resolvido neste trabalho.
Resumo:
A resistência a fármacos antituberculose tem constituído uma grande ameaça ao controle da tuberculose em âmbito mundial. A sua detecção precoce permite ao médico instituir um esquema de tratamento mais adequado ao paciente e consequentemente quebrar a cadeia de transmissão dos bacilos. Os testes de sensibilidade a antimicrobianos atuais, embora eficientes, são caros e/ou demorados e/ou trabalhosos. Com base nesta premissa, nos propusemos a desenvolver e padronizar um método fenotípico direto para determinação da sensibilidade do Mycobacterium tuberculosis a antimicrobianos de primeira linha do tratamento da tuberculose. Para o desenvolvimento deste novo teste, utilizaram-se os princípios do método das proporções e do exame de cultura pelo método de Ogawa–Kudoh. O estudo foi dividido em duas fases. A primeira, caracterizada pelo desenvolvimento e padronização do método proposto e a segunda, pela análise da concordância entre o método desenvolvido e o método do MGIT (padrão-ouro). Na primeira fase, foram realizados diversos ensaios para definir: os volumes de absorção e de liberação de líquidos de diferentes tipos de swab, o meio de cultura, as concentrações dos antimicrobianos e o tempo de leitura/interpretação das culturas. Além disso, foi verificado se a amostra deveria ou não ser diluída. Com base nos resultados destes ensaios, padronizou-se o método com: swab comercial, em meio de cultura Ogawa- Kudoh contendo separadamente 0,2 μg/mL de isoniazida, 40,0 μg/mL de rifampicina, 10,0 μg/mL de estreptomicina e 500,0 μg/mL de ácido para-nitrobenzóico. Padronizou-se ainda a inoculação da amostra de escarro de forma direta, ou seja, sem diluir e a leitura/interpretação do resultado do teste no período entre 21 e 28 dias. A análise comparativa entre este método e o teste de sensibilidade a antimicrobianos no sistema MGIT realizada na segunda fase do projeto indicou um índice kappa igual a 1,000, ou seja, uma concordância muito boa em relação ao padrão-ouro. Diante desses resultados promissores, acreditamos que o método desenvolvido apresente um grande potencial para ser utilizado em laboratórios com pouca infra-estrutura, por ser de baixo custo, fácil execução e relativamente rápido.
Resumo:
Esta pesquisa focaliza o início da carreira docente na Educação Infantil. No reconhecimento da especificidade da primeira etapa da Educação Básica e na compreensão de que o início da carreira é fundamental para a trajetória profissional dos professores, tem o objetivo de compreender a constituição do início da carreira docente de professoras que têm na Educação Infantil suas primeiras vivências profissionais. O trabalho se estrutura por princípios teórico-metodológicos bakhtinianos (BAKHTIN, 2003), contextualiza o desenvolvimento da docência na Educação Infantil no Brasil e a complexidade no início da carreira, dialogando, deste modo, com os conceitos de saberes docentes (TARDIF, 2002) e desenvolvimento profissional (MARCELO GARCÍA, 1999). A abordagem é qualitativa do tipo exploratória e se apoia no princípio de interação dialógica (BAKHTIN, 2003). Dispõe como fonte de produção de dados entrevistas individuais e coletivas com um grupo de professoras no segundo ano de atuação profissional na Educação Infantil. Nesse movimento, a dialogia orienta a análise das enunciações das professoras sobre início de carreira, no intuito de conhecer as vivências dos novos processos formativos. A análise dos dados produzidos indica que o início da carreira docente na Educação Infantil se constitui em complexas condições e transições de emprego, nas quais residem as principais dificuldades de desenvolvimento profissional. Paralelo às dificuldades encontradas, o aprendizado da docência na Educação Infantil ocorre por meio do desenvolvimento de parcerias com professoras mais experientes e também por meio do reconhecimento das necessidades de cuidado e educação de cada criança. Logo, é evidenciado que as professoras iniciantes reformulam suas perspectivas didáticas e modos de saber fazer em função das especificidades que envolve cada contexto no qual estão inseridas.
Resumo:
Program slicing is a well known family of techniques used to identify code fragments which depend on or are depended upon specific program entities. They are particularly useful in the areas of reverse engineering, program understanding, testing and software maintenance. Most slicing methods, usually oriented towards the imperative or object paradigms, are based on some sort of graph structure representing program dependencies. Slicing techniques amount, therefore, to (sophisticated) graph transversal algorithms. This paper proposes a completely different approach to the slicing problem for functional programs. Instead of extracting program information to build an underlying dependencies’ structure, we resort to standard program calculation strategies, based on the so-called Bird-Meertens formalism. The slicing criterion is specified either as a projection or a hiding function which, once composed with the original program, leads to the identification of the intended slice. Going through a number of examples, the paper suggests this approach may be an interesting, even if not completely general, alternative to slicing functional programs
Resumo:
Purpose: Precise needle puncture of the renal collecting system is an essential but challenging step for successful percutaneous nephrolithotomy. We evaluated the efficiency of a new real-time electromagnetic tracking system for in vivo kidney puncture. Materials and Methods: Six anesthetized female pigs underwent ureterorenoscopy to place a catheter with an electromagnetic tracking sensor into the desired puncture site and ascertain puncture success. A tracked needle with a similar electromagnetic tracking sensor was subsequently navigated into the sensor in the catheter. Four punctures were performed by each of 2 surgeons in each pig, including 1 each in the kidney, middle ureter, and right and left sides. Outcome measurements were the number of attempts and the time needed to evaluate the virtual trajectory and perform percutaneous puncture. Results: A total of 24 punctures were easily performed without complication. Surgeons required more time to evaluate the trajectory during ureteral than kidney puncture (median 15 seconds, range 14 to 18 vs 13, range 11 to 16, p ¼ 0.1). Median renal and ureteral puncture time was 19 (range 14 to 45) and 51 seconds (range 45 to 67), respectively (p ¼ 0.003). Two attempts were needed to achieve a successful ureteral puncture. The technique requires the presence of a renal stone for testing. Conclusions: The proposed electromagnetic tracking solution for renal collecting system puncture proved to be highly accurate, simple and quick. This method might represent a paradigm shift in percutaneous kidney access techniques
Resumo:
Program slicing is a well known family of techniques used to identify code fragments which depend on or are depended upon specific program entities. They are particularly useful in the areas of reverse engineering, program understanding, testing and software maintenance. Most slicing methods, usually targeting either the imperative or the object oriented paradigms, are based on some sort of graph structure representing program dependencies. Slicing techniques amount, therefore, to (sophisticated) graph transversal algorithms. This paper proposes a completely different approach to the slicing problem for functional programs. Instead of extracting program information to build an underlying dependencies’ structure, we resort to standard program calculation strategies, based on the so-called Bird- Meertens formalism. The slicing criterion is specified either as a projection or a hiding function which, once composed with the original program, leads to the identification of the intended slice. Going through a number of examples, the paper suggests this approach may be an interesting, even if not completely general alternative to slicing functional programs
Resumo:
A hierarchical matrix is an efficient data-sparse representation of a matrix, especially useful for large dimensional problems. It consists of low-rank subblocks leading to low memory requirements as well as inexpensive computational costs. In this work, we discuss the use of the hierarchical matrix technique in the numerical solution of a large scale eigenvalue problem arising from a finite rank discretization of an integral operator. The operator is of convolution type, it is defined through the first exponential-integral function and, hence, it is weakly singular. We develop analytical expressions for the approximate degenerate kernels and deduce error upper bounds for these approximations. Some computational results illustrating the efficiency and robustness of the approach are presented.
Resumo:
Purpose: Precise needle puncture of the renal collecting system is an essential but challenging step for successful percutaneous nephrolithotomy. We evaluated the efficiency of a new real-time electromagnetic tracking system for in vivo kidney puncture. Materials and Methods: Six anesthetized female pigs underwent ureterorenoscopy to place a catheter with an electromagnetic tracking sensor into the desired puncture site and ascertain puncture success. A tracked needle with a similar electromagnetic tracking sensor was subsequently navigated into the sensor in the catheter. Four punctures were performed by each of 2 surgeons in each pig, including 1 each in the kidney, middle ureter, and right and left sides. Outcome measurements were the number of attempts and the time needed to evaluate the virtual trajectory and perform percutaneous puncture. Results: A total of 24 punctures were easily performed without complication. Surgeons required more time to evaluate the trajectory during ureteral than kidney puncture (median 15 seconds, range 14 to 18 vs 13, range 11 to 16, p ¼ 0.1). Median renal and ureteral puncture time was 19 (range 14 to 45) and 51 seconds (range 45 to 67), respectively (p ¼ 0.003). Two attempts were needed to achieve a successful ureteral puncture. The technique requires the presence of a renal stone for testing. Conclusions: The proposed electromagnetic tracking solution for renal collecting system puncture proved to be highly accurate, simple and quick. This method might represent a paradigm shift in percutaneous kidney access techniques.