985 resultados para Grécia Clássica


Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde a antigüidade a medição do escoamento dos fluidos tem sido uma marca de nossa civilização, ajudando a predizer a fertilidade das terras e o consumo d’água em fontes e aquedutos. Nos nossos dias, a área de medição de fluxo está bem estabelecida e ainda desperta grande interesse nas linhas de pesquisa da mecânica dos fluidos experimental e computacional. Em particular, o estudo da medição de fluxo com elementos intrusivos, tais como placas de orifício, é de grande interesse dado o preço baixo do medidor, e sua boa precisão quando comparada à sua simplicidade de instalação e manutenção. Esta dissertação tem como objetivo o estudo da aplicação de elementos finitos aos escoamentos de fluidos viscosos - via aproximação clássica de Galerkin e Galerkin/mínimos-quadrados (GLS) – com particular ênfase na aproximação das equações de Navier-Stokes incompressível no escoamento newtoniano através de um canal obstruído por uma placa de orifício. Inicialmente, são apresentadas as dificuldades do método de Galerkin clássico na aproximação de escoamentos incompressíveis; ou seja, através da simulação de escoamentos viscosos bem conhecidos - como o escoamento no interior de uma cavidade e através de uma expansão súbita - fica evidenciada a restrição imposta pela condição de Babuška-Brezzi quando da escolha dos subespaços aproximantes do campo de velocidade e pressão Como alternativa às patologias do método de Galerkin clássico, esta dissertação emprega a metodologia de Galerkin/mínimos-quadrados na simulação acima mencionada da placa de orifício, a qual permite o uso de elementos de igual-ordem para aproximar velocidade e pressão e capturar de maneira estável escoamentos sujeitos a altos números de Reynolds. Os testes computacionais realizados se apresentaram fisicamente realistas quando comparados com a literatura e dados experimentais, sendo todos desenvolvidos no Laboratório de Mecânica dos Fluidos Aplicada e Computacional (LAMAC) do Departamento de Engenharia Mecânica da Universidade Federal do Rio Grande do Sul.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O tema desta dissertação é a reforma do setor público brasileiro, com foco na reforma administrativa de inspiração gerencial, implantada em 2005 na principal empresa pública da capital pernambucana, a URB - Recife. O objetivo final do estudo foi o entendimento dos impactos na gestão da empresa, advindos de tal reestruturação, recorrendo-se parcialmente às percepções que dela tiveram seus funcionários e o corpo de gerentes, conforme reveladas por pesquisa ad hoc aplicada. O estudo foi contextualizado num histórico sumário da administração burocrática no Brasil; destacando-se as iniciativas de reforma na. era Vargas, com o surgimento do DASP, quando se tentou a implantação da burocracia clássica de inspiração weberiana, fazendo-se igualmente referência à segunda grande reforma do Estado brasileiro, realizada no regime militar, regulada pelo Decreto-lei n° 200/67 e considerada a primeira tentativa de reforma de cunho gerencial. No governo Fernando Henrique Cardoso, foi tentada a terceira grande reforma, influenciada pelas idéias econômicas e políticas dos anos oitenta e noventa do século passado em países industrializados, cujos governos apostavam então nos valores e estratégias do mercado, . como a solução mais adequada para os problemas econômicos e sociais, e nas técnicas de gestão do setor priva~o, para tomar mais eficiente a administração pública. Ao lado da concepção administrativa de· vertente gerencial, no Brasil das duas últimas décadas, prosperaram idéias de administração societal, inspiradas em experiências de orçamento participativo, iniciadas na Prefeitura de Porto Alegre em 1989 e hoje espalhadas por centenas de municípios. A reforma da URB - Recife em 2005, também foi analisada quanto à evolução de sua estrutura desde sua instituição em 1973 e as diversas alterações de atribui'4ões e de modelos de gestão ocorridos no período. Concluiu-se, tanto com base na avaliação das respostas à pesquisa referenciada, como pelas próprias observações do autor do estudo, que a reforma focada teve resultados predominantemente desfavoráveis ao desempenho desejável da instituição.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objetivo: Analisar o Banco Central do Paraguai sob o ângulo institucional a partir de sua fundação em 1952 até os dias atuais, enfocando sua criação, evolução e autonomia para explicitar as suas relações com o meio ambiente e as alternativas para aumentar seu grau de institucionalização. Metodologia: Na parte dos antecedentes históricos a metodologia utilizada foi a compilação de informações. A análise institucional do Banco Central do Paraguai foi desenvolvida à luz do modelo de Desenvolvimento Institucional (Institution-Building), e na parte dos fundamentos para um banco central autonomo foi feita uma revisão bibliográfica, desde a teoria clássica até as mais recentes correntes que defendem a nova concepção que é atribuída a um banco central no mundo. Conclusão: Ao longo de seu processo evolutivo, o Banco Central do Paraguai extrapolou suas funções clássicas, perdeu parte de sua autonomia politico-administrativa e vem atuando de modo ineficaz em algumas áreas comprometendo sua imagem junto ao público. Para alcançar outro estágio de institucionalização deve voltar a suas atividades tradicionais e procurar adequar a nova Constituição do Paraguai que limitou o Banco Central à condição de órgão técnico do Estado reduzindo ainda mais sua autonomia. preciso que as instituições paraguaias se fortaleçam ao império da lei.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho utilizamos inicialmente as descrições dos possíveis modelos mentais construídos por estudantes de Física Geral na área de Mecânica Clássica, segundo a perspectiva teórica de Philip N. Johnson-Laird (1983), pesquisadas por Lagreca (1997 e 1999). A partir destas descrições, estendemos seus resultados de acordo com uma revisão da literatura, procurando a formação de possíveis modelos simuláveis computacionalmente. O Qsim (Kuipers, 1994) foi o algoritmo de simulação escolhido para o nosso trabalho, devido à semelhança com pesquisas analíticas encontradas sobre o pensamento dos estudantes. Para a simulação, implementamos dois modelos. O modelo newtoniano utiliza noções semelhantes às idéias de Newton, pelo menos com as forças de contato e o atrito com dependência direta com a velocidade. O modelo do impetus possui a concepção de força proporcional à velocidade com o atrito constante. Neste último caso não foi possível a construção de simulações a partir de um atrito dependente da velocidade, devido ao reconhecimento do programa de apenas uma única função crescente. Além disso, simulamos três modelos provenientes do modelo do impetus quando a situação envolve queda na presença da força gravitacional Para a simulação dos modelos, selecionamos alguns problemas para estudo. Iniciamos com o estudo do movimento horizontal e, em seguida, os problemas do páraquedista, do penhasco e do movimento balístico. Comparamos os resultados com algumas concepções dos estudantes encontradas em pesquisas analítico-qualitativas, mostrando que muitas concepções surgiam naturalmente da manipulação dos modelos nos problemas. Isto sugere que a abordagem dos modelos mentais seja mais ampla que a das concepções alternativas e que muitas dessas concepções possam ser reflexos da manipulação dos modelos em algumas situações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho se propõe a testar a validade da hipótese da paridade câmbio-juro para o caso brasileiro e, posteriormente, a investigar a principal explicação apontada pela literatura para a falência da UIP, qual seja: a existência de um prêmio de risco cambial variante ao longo do tempo. A clássica abordagem das regressões de Fama, aplicadas para o período de livre flutuação cambial, sugere falência da hipótese em questão quando considerados contratos de NDF de doze meses sobre o real, identificando viés nos contratos futuros como estimadores da taxa de câmbio – não foi possível obter a mesma conclusão ao se trabalhar com contratos futuros de dólar de um mês negociados na BM&F. Feitas as regressões de Fama, replica-se ao caso brasileiro metodologia implementada por Clarida et. al. (2009) para os países desenvolvidos, na tentativa de capturar eventual relação entre a volatilidade e o excesso de retorno de uma estratégia de carry trade com o real. Em linha com os resultados obtidos pela experiência internacional, detecta-se correlação negativa entre a volatilidade e o excesso de retorno de tal estratégia. A partir de tal conclusão, revisitam-se as regressões de Fama para subperíodos, conforme a volatilidade. Períodos de maior volatilidade foram caracterizados por um incremento do coeficiente da regressão de Fama, novamente em um resultado alinhado àquele obtido por Clarida et. al. (2009). Esgotado o assunto circunscrito às regressões de Fama, passa-se à estimativa da série de prêmio de risco cambial propriamente dita, por meio da metodologia de Filtro de Kalman imposta à série de NDF de doze meses, a qual detectou um prêmio de risco cambial com média positiva na amostra considerada – em linha com a intuição -, mas com medidas de dispersão bastante elevadas. O estudo segue numa tentativa de modelar o prêmio de risco cambial através de um instrumental da família GARCH-M, sendo, entretanto, incapaz de prover boas estimativas para o comportamento da variável sob interesse. Inicia-se um novo capítulo com o intuito de introduzir microfundamentação ao prêmio de risco cambial, trazendo ao caso brasileiro método desenvolvido por Frankel (1982). A aderência da modelagem também foi baixa. Para terminar, apresenta-se investigação preliminar sobre a relação entre o prêmio de risco cambial e a presença de eventos considerados raros na série de PTAX, seguindo intuição levantada por Rietz (1988) e expandida por Barro (2005). A moeda brasileira carrega caráter leptocúrtico superior às demais componentes da amostra, indicando que, de fato, o prêmio de risco cambial exigido para se estar na moeda doméstica pode estar relacionado à recorrência de eventos supostamente raros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The work described in this thesis aims to support the distributed design of integrated systems and considers specifically the need for collaborative interaction among designers. Particular emphasis was given to issues which were only marginally considered in previous approaches, such as the abstraction of the distribution of design automation resources over the network, the possibility of both synchronous and asynchronous interaction among designers and the support for extensible design data models. Such issues demand a rather complex software infrastructure, as possible solutions must encompass a wide range of software modules: from user interfaces to middleware to databases. To build such structure, several engineering techniques were employed and some original solutions were devised. The core of the proposed solution is based in the joint application of two homonymic technologies: CAD Frameworks and object-oriented frameworks. The former concept was coined in the late 80's within the electronic design automation community and comprehends a layered software environment which aims to support CAD tool developers, CAD administrators/integrators and designers. The latter, developed during the last decade by the software engineering community, is a software architecture model to build extensible and reusable object-oriented software subsystems. In this work, we proposed to create an object-oriented framework which includes extensible sets of design data primitives and design tool building blocks. Such object-oriented framework is included within a CAD Framework, where it plays important roles on typical CAD Framework services such as design data representation and management, versioning, user interfaces, design management and tool integration. The implemented CAD Framework - named Cave2 - followed the classical layered architecture presented by Barnes, Harrison, Newton and Spickelmier, but the possibilities granted by the use of the object-oriented framework foundations allowed a series of improvements which were not available in previous approaches: - object-oriented frameworks are extensible by design, thus this should be also true regarding the implemented sets of design data primitives and design tool building blocks. This means that both the design representation model and the software modules dealing with it can be upgraded or adapted to a particular design methodology, and that such extensions and adaptations will still inherit the architectural and functional aspects implemented in the object-oriented framework foundation; - the design semantics and the design visualization are both part of the object-oriented framework, but in clearly separated models. This allows for different visualization strategies for a given design data set, which gives collaborating parties the flexibility to choose individual visualization settings; - the control of the consistency between semantics and visualization - a particularly important issue in a design environment with multiple views of a single design - is also included in the foundations of the object-oriented framework. Such mechanism is generic enough to be also used by further extensions of the design data model, as it is based on the inversion of control between view and semantics. The view receives the user input and propagates such event to the semantic model, which evaluates if a state change is possible. If positive, it triggers the change of state of both semantics and view. Our approach took advantage of such inversion of control and included an layer between semantics and view to take into account the possibility of multi-view consistency; - to optimize the consistency control mechanism between views and semantics, we propose an event-based approach that captures each discrete interaction of a designer with his/her respective design views. The information about each interaction is encapsulated inside an event object, which may be propagated to the design semantics - and thus to other possible views - according to the consistency policy which is being used. Furthermore, the use of event pools allows for a late synchronization between view and semantics in case of unavailability of a network connection between them; - the use of proxy objects raised significantly the abstraction of the integration of design automation resources, as either remote or local tools and services are accessed through method calls in a local object. The connection to remote tools and services using a look-up protocol also abstracted completely the network location of such resources, allowing for resource addition and removal during runtime; - the implemented CAD Framework is completely based on Java technology, so it relies on the Java Virtual Machine as the layer which grants the independence between the CAD Framework and the operating system. All such improvements contributed to a higher abstraction on the distribution of design automation resources and also introduced a new paradigm for the remote interaction between designers. The resulting CAD Framework is able to support fine-grained collaboration based on events, so every single design update performed by a designer can be propagated to the rest of the design team regardless of their location in the distributed environment. This can increase the group awareness and allow a richer transfer of experiences among them, improving significantly the collaboration potential when compared to previously proposed file-based or record-based approaches. Three different case studies were conducted to validate the proposed approach, each one focusing one a subset of the contributions of this thesis. The first one uses the proxy-based resource distribution architecture to implement a prototyping platform using reconfigurable hardware modules. The second one extends the foundations of the implemented object-oriented framework to support interface-based design. Such extensions - design representation primitives and tool blocks - are used to implement a design entry tool named IBlaDe, which allows the collaborative creation of functional and structural models of integrated systems. The third case study regards the possibility of integration of multimedia metadata to the design data model. Such possibility is explored in the frame of an online educational and training platform.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa tem como objetivo básico resgatar a contribuição da sofística grega à teoria geral da educação analisando-a como paradigma da gênese teórica e histórica da relação entre poder, saber e discurso na educação ocidental. Em primeiro lugar, mostra-se que, contrariamente à crítica da filosofia que considerou-a falsa sabedoria, a sofística representou um autêntico movimento pedagógico, o primeiro do Ocidente que sustentou uma concepção orgânica entre educação, política e discurso. Em segundo lugar, afirma-se que a sofística foi um movimento pedagógico autêntico, mas diverso e contraditório internamente e muito ligado às condiçoes políticas da Grécia. A questão da sofística ganha neste estudo toda sua relevância em função de uma diferenciação fundamental: a primeira ou antiga sofística e a nova ou segunda sofística. Sublinha-se a contribuião positiva, principalmente, da primeira sofística e explica-se por que mudou sua conotação original de sabedoria, muito popular na democracia, para sua contr'ria de falso saber, amplamente rejeitada durante a demagogia e a queda da cidade. Considera-se que o resgate da sofística uma importante contribuição para repensar a educação atual segundo sua tradição histórica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No contexto dos estudos psicogenéticos de J. Piaget, as investigações sobre o conhecimento físico abrangem .diferentes ternas, oriundos predominantemente da mecânica clássica. Há, no entanto, um terna específico que, ainda no contexto dos estudos psicogenéticos, é abordado de forma circunscrita: a causalidade, ou explicação causal, que é entendida por Piaget corno sinônimo do conhecimento físico. Este ensaio parte, em uma primeira etapa, dos três textos por ele escritos sobre este terna: "La causalité physique chez l'enfant" (1927); "Le développement de la causalité sensori-motrice", analisado em "La construction du ,réel chez l'enfant" (1937); e "Les explications ccausales"(197l). Desta apresentação se depreende a origem e evolução de alguns conceitos básicos de seu modelo teórico, bem corno os limites de uma pSicologia cognitiva que se volta para o estudo do sujeito epistêmico. Acrescentam-se observações e comentários críticos, originados de pesquisas atuais que, desenvolvidas no contexto do ensino e aprendizagem de física, focalizam as concepções espontâneas ou alternativas em mecânica. Finalmente, aborda-se o terna da formação do conhecimento físico, a partir da perspectiva de uma psicologia cognitiva, baseada em uma análise crítica dos estudos de J. Piaget.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho, procuramos analisar fatores que contribuem para o sucesso ou insucesso de determinadas práticas terapêuticas em instituições psiquiátricas. Como prática social, que se realiza através de instituições, a psiquiatria e as relações sociais e humanas dela decorrentes, são, um campo privilegiado de aplicação de descobertas das ciências sociais e do comportamento e seu estudo dificilmente se fará a partir de uma só perspectiva, que nos possibilita referendar este trabalho sob uma abordagem institucional, considerando o hospital estudado como fazendo parte de um contexto mais amplo da sociedade. A análise foi realizada através da comparação de dados referentes aos pacientes e à equipe de atendimento do hospital psiquiátrico que ilustra este trabalho. Estes se referem a dois períodos diferentes de atendimento psiquiátrico. Consideramos o primeiro período como de terapêutica clássica e o segundo como o da implantação e expansão da experiência de comunidade terapêutica. Colocamos este segundo momento como o mais relevante na história das práticas terapêuticas daquele hospital, posto que marca o início de um período bastante diferente do anterior , tanto no que concerne às ideias e à abordagem dos problemas psiquiátricos em geral, quanto à atenção dispensada aos pacientes especificamente, deixando cada vez menor a margem para um tratamento unilateral da doença mental, não somente em termos teóricos, mas também, em termos práticos em virtude da tentativa de fortalecimento da vinculação paciente/família/comunidade. Entretanto a comparação realizada nos permite concluir que de acordo com os dados apresentados pelo hospital os dois períodos não diferem significativamente no que se referem aos pacientes e a equipe de atendimento. Considerando ainda que a prática terapêutica em hospitais públicos está organizada em função de objetivos da política de saúde vigente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho aborda-se o conceito de interação como fator de relevante importância para o desenvolvimento da psicologia. Para tanto, analisou-se a evolução da ciência ocidental desde suas raízes na Grécia Antiga até aos dias atuais, ressaltando as revoluções científicas que trouxeram alguma modificação ao pensamento científico. Esse enfoque permitiu verificar-se que duas características marcantes predominaram na ciência: o dualismo e o mecanicismo que a Revolução Científica do século XVII acentuou graças à filosofia de Descartes e à física de Newton. Segundo o paradigma cartesiano-newtoniano, interação, em psicologia nada mais é que a atuação de alguma coisa sobre outra e vice-versa; em outros termos, o ser humano é o resultante de forças, quer sejam internas, quer sejam externas, que atuam sobre ele e as quais ele reage. Logo, interação revela uma conotação mecanicista linear de causa e efeito. A visão fisicalista e reducionista impediu, de certa forma, o desenvolvimento da psicologia que sofre, como toda a ciência em geral, uma transformação e consequente reformulação e criação de conceitos. Assim concluiu-se que, neste novo quadro, a psicologia considerando o homem como um sistema, isto é, um conjunto cujas partes, todas relevantes, integram numa luta permanente de ser e não ser, de ordem e desordem em constante reorganização, salienta-se o conceito de interação como um fator de conhecimento maior, mais completo do homem, um ser tão paradoxal e contraditório segundo metodologias inadequadas para sua investigação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho parte do pressuposto de que o desenvolvimento das ideias e ações humanas é indissociável do processo de evolução da máquina, destacando o aspecto interativo aí existente: a mente que concebe a máquina e que, por sua vez, passa a servir de modelo para, essa mesma mente construir a sua visão de mundo. O objetivo principal consiste em analisar as bases epistemológicas do processo educacional brasileiro a partir do desenvolvimento da própria máquina, o qual, segundo a teoria aqui adotada, subdivide-se em quatro etapas: a máquina Pré-Clássica, a máquina Clássica, a máquina Cibernética e a máquina Informacional. A hipótese aqui apresentada, e no final confirmada, é a de que, apesar de hoje o mundo estar subjugado às propriedades da maquina informacional, na estrutura do processo educacional brasileiro predominam as características epistêmicas da maquina clássica, devido a nossa educação continuar arraigada em aspectos constitutivos dessa máquina: em sua Iógica (linear), em seu ritmo (padrão de comportamento) e em sua morfologia (elementarização). Através desse estudo procura se evidencia que transformações se operaram (ou não) no processo educacional brasileiro e a necessidade de uma redefinição conceitual e metodológica da própria educação, de forma que se minimize a distância entre a mesma e o progresso tecnológico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho tem por objetivo apresentar o conceito de abdução. Um conceito ignorado e pouco usado pela maioria dos economistas. Um conceito utilizado intuitivamente pela macroeconomia keynesiana, economia clássica e microeconomia marshalliana, dado o viés mais histórico-indutivo dessas matrizes. Um conceito fundamental na etapa de criação das teorias que depois poderão ser organizadas (dedução) e testadas empiricamente (indução controlada). O trabalho se inspira na abordagem histórica e a necessidade de se adotar um postura “histórico-dedutiva” para se fazer ciência em economia como defendida por Bresser-Pereira. Na seção 2 apresentamos a noção de abordagem histórica de Bresser-Pereira. Na seção 3 tratamos da definição formal do conceito de abdução. A seção 4 discute brevemente as bases de uma epistemologia abdutiva. A última seção conclui o trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação pretende ser uma abordagem empírica para testar a validade de um modelo matemático para avaliação de comportamentos proposto por Ziviani (1974), quanto ao seu emprego para avaliar e quantificar respostas a questões de múltipla escolha, tendo como critério o modelo tradicional da psicometria clássica. É portanto, um estudo comparativo entre os resultados (escores) obtidos através deste modelo, por um lado, e através do método tradicional, em termos da dicotomia certo-errado, por outro. Visa mostrar como as variações no instrumento de medida (teste) ou instrumentos de medida com características diferentes determinam variações nos escores fornecidos pelos dois modelos e que estes escores são tanto mais equivalentes quanto "melhor" for o teste a que se referem.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho representa urna tentativa de recolocar, à luz das mais recentes contribuições teóricas e verificações empíricas, o terna da obtenção de conceitos e de sua atual alternativa, expressa através da teoria dos protótipos. Para a consecução de tal objetivo, fez-se inicialmente urna revisão dos principais aspectos que caracterizam a abordagem clássica na obtenção de conceitos. Nessa abordagem, define-se um conceito por um pequeno conjunto de propriedades comuns a todos os seus exemplares, que são necessárias e suficientes para este fim. A análise dos resultados obtidos confirmou plenamente a hipótese em questão, indicando que a estrutura interna das categorias de ambientes possuía uma realidade psicológica e que tal estrutura afetava o processamento cognitivo destas categorias. As evidências reunidas nos três estudos possibilitaram uma confirmação e extensão de algumas das formulações teóricas subjacentes ã abordagem de protótipos na formação de categorias e possibilitaram o desenvolvimento de sugestões úteis ã Psicologia Ambiental, ã Psicologia Instrucional e ã elaboração de modelos sobre o processo de for mação de categorias.