39 resultados para Grécia Clássica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A dissertação constitui-se num estudo da relação existente entre dois fenômenos contemporâneos ocorridos no Cone Sul da América Latina: a recente trajetória da construção democrática na Argentina, no Brasil, no Paraguai e no Uruguai (iniciada com a posse do primeiro governo eleito democraticamente na região, em 10/12/1983, na Argentina); e a constituição do processo de integração regional denominado Mercosul (fundado a partir da assinatura do “Tratado de Assunção”, em 26/03/1991). Os objetivos centrais são: identificar o vínculo existente entre os conceitos integração e democracia nesse contexto delimitado; analisar e comparar as Constituições e as legislações ordinárias dos Estados-membros do Mercosul quanto às temáticas da integração e da democracia; analisar e comparar as Constituições e legislações ordinárias que regulam os sistemas políticos, eleitorais e partidários dos países membros do Mercosul; analisar a legislação do Mercosul que trata do tema democracia e compará-la a outros processos de integração regional que tratam do mesmo tema; e fazer uma reflexão sobre as mudanças ocorridas na definição clássica de Estado-nação, a partir do surgimento do instituto da “soberania compartilhada”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A enorme complexidade dos sistemas ecológicos tem sido uma grande barreira para a compreensão e o gerenciamento da problemática ambiental. Neste sentido a modelagem matemática é uma valiosa ferramenta, devido a sua capacidade de organizar as informações disponíveis sobre estes sistemas e de fazer previsões a seu respeito para diferentes condições. Desta forma a análise de sistemas naturais vem sendo abordada de diferentes maneiras, sendo que nas últimas décadas a teoria de ecossistemas expandiu-se e ramos específicos, que permitem seguir e predizer a evolução de ecossistemas, foram formulados. Um destes enfoques, conhecido como análise do fluxo de insumo-produto, pode ser utilizado para explicar o funcionamento e estrutura dos subsistemas de um ecossistema através da descrição dos fluxos de matéria ou energia. A análise do fluxo de insumo-produto pode ser representada através de dois modelos: o modelo determinístico ou o modelo estocástico, tendo sua origem em estudos de caso com o objetivo de analisar a econômica norte-americana, sendo uma extensão prática da teoria clássica de interdependência geral. Este trabalho faz uma abordagem sintética da evolução desta análise, avaliando dados teóricos e principalmente dados referentes à Lagoa Itapeva. A análise de input-output (determinística e estocástica) com o propósito de obter informações no que diz respeito aos fluxos (matéria e energia), é bastante simples; sendo que os modelos determinísticos se prestam melhor para traçar um panorama global e para obter projeções para as variáveis já os modelos estocásticos são mais complexos, mas provêem uma descrição mais acurada. Na Lagoa Itapeva os processos determinísticos demonstraram um baixo índice de ciclagem do carbono entre os três compartimentos em estudo e o fluxo preferencial na normalização corresponde ao compartimento dos produtores primários, isto decorre de não existir loop nos compartimentos em estudo e também não existir fluxos em dois sentidos. Em relação à avaliação estocástica foram observadas uma baixa relação no sentido espacial superfície-meio-fundo da lagoa, e uma boa distribuição espacial norte-centro-sul. Quanto à distribuição temporal, foi constatada uma baixa concordância entre os dados analisados e os dados reais quanto das análises realizadas em intervalos de tempo pequeno (horas) e uma boa concordância nas medidas feitas quando o intervalo foi significativo (meses). Também em relação à Lagoa Itapeva, foi verificado nas análises estocásticas, utilizando-se operadores espaciais, que como a dinâmica biológica nem sempre é linear, os organismos não podem acompanhar imediatamente e perfeitamente as mudanças do ambiente, resultando em tempos de residência de matéria significativamente baixo. Além da análise dos fluxos ligados a este ecossistema lagunar, foram desenvolvidas técnicas de correção e adaptação de dados referentes à amostragem ocorrida na Lagoa durante um ano de campanha. Assim, propõe-se uma nova perspectiva no uso desta metodologia de forma simples e de fácil manipulação matemática.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde a antigüidade a medição do escoamento dos fluidos tem sido uma marca de nossa civilização, ajudando a predizer a fertilidade das terras e o consumo d’água em fontes e aquedutos. Nos nossos dias, a área de medição de fluxo está bem estabelecida e ainda desperta grande interesse nas linhas de pesquisa da mecânica dos fluidos experimental e computacional. Em particular, o estudo da medição de fluxo com elementos intrusivos, tais como placas de orifício, é de grande interesse dado o preço baixo do medidor, e sua boa precisão quando comparada à sua simplicidade de instalação e manutenção. Esta dissertação tem como objetivo o estudo da aplicação de elementos finitos aos escoamentos de fluidos viscosos - via aproximação clássica de Galerkin e Galerkin/mínimos-quadrados (GLS) – com particular ênfase na aproximação das equações de Navier-Stokes incompressível no escoamento newtoniano através de um canal obstruído por uma placa de orifício. Inicialmente, são apresentadas as dificuldades do método de Galerkin clássico na aproximação de escoamentos incompressíveis; ou seja, através da simulação de escoamentos viscosos bem conhecidos - como o escoamento no interior de uma cavidade e através de uma expansão súbita - fica evidenciada a restrição imposta pela condição de Babuška-Brezzi quando da escolha dos subespaços aproximantes do campo de velocidade e pressão Como alternativa às patologias do método de Galerkin clássico, esta dissertação emprega a metodologia de Galerkin/mínimos-quadrados na simulação acima mencionada da placa de orifício, a qual permite o uso de elementos de igual-ordem para aproximar velocidade e pressão e capturar de maneira estável escoamentos sujeitos a altos números de Reynolds. Os testes computacionais realizados se apresentaram fisicamente realistas quando comparados com a literatura e dados experimentais, sendo todos desenvolvidos no Laboratório de Mecânica dos Fluidos Aplicada e Computacional (LAMAC) do Departamento de Engenharia Mecânica da Universidade Federal do Rio Grande do Sul.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho utilizamos inicialmente as descrições dos possíveis modelos mentais construídos por estudantes de Física Geral na área de Mecânica Clássica, segundo a perspectiva teórica de Philip N. Johnson-Laird (1983), pesquisadas por Lagreca (1997 e 1999). A partir destas descrições, estendemos seus resultados de acordo com uma revisão da literatura, procurando a formação de possíveis modelos simuláveis computacionalmente. O Qsim (Kuipers, 1994) foi o algoritmo de simulação escolhido para o nosso trabalho, devido à semelhança com pesquisas analíticas encontradas sobre o pensamento dos estudantes. Para a simulação, implementamos dois modelos. O modelo newtoniano utiliza noções semelhantes às idéias de Newton, pelo menos com as forças de contato e o atrito com dependência direta com a velocidade. O modelo do impetus possui a concepção de força proporcional à velocidade com o atrito constante. Neste último caso não foi possível a construção de simulações a partir de um atrito dependente da velocidade, devido ao reconhecimento do programa de apenas uma única função crescente. Além disso, simulamos três modelos provenientes do modelo do impetus quando a situação envolve queda na presença da força gravitacional Para a simulação dos modelos, selecionamos alguns problemas para estudo. Iniciamos com o estudo do movimento horizontal e, em seguida, os problemas do páraquedista, do penhasco e do movimento balístico. Comparamos os resultados com algumas concepções dos estudantes encontradas em pesquisas analítico-qualitativas, mostrando que muitas concepções surgiam naturalmente da manipulação dos modelos nos problemas. Isto sugere que a abordagem dos modelos mentais seja mais ampla que a das concepções alternativas e que muitas dessas concepções possam ser reflexos da manipulação dos modelos em algumas situações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The work described in this thesis aims to support the distributed design of integrated systems and considers specifically the need for collaborative interaction among designers. Particular emphasis was given to issues which were only marginally considered in previous approaches, such as the abstraction of the distribution of design automation resources over the network, the possibility of both synchronous and asynchronous interaction among designers and the support for extensible design data models. Such issues demand a rather complex software infrastructure, as possible solutions must encompass a wide range of software modules: from user interfaces to middleware to databases. To build such structure, several engineering techniques were employed and some original solutions were devised. The core of the proposed solution is based in the joint application of two homonymic technologies: CAD Frameworks and object-oriented frameworks. The former concept was coined in the late 80's within the electronic design automation community and comprehends a layered software environment which aims to support CAD tool developers, CAD administrators/integrators and designers. The latter, developed during the last decade by the software engineering community, is a software architecture model to build extensible and reusable object-oriented software subsystems. In this work, we proposed to create an object-oriented framework which includes extensible sets of design data primitives and design tool building blocks. Such object-oriented framework is included within a CAD Framework, where it plays important roles on typical CAD Framework services such as design data representation and management, versioning, user interfaces, design management and tool integration. The implemented CAD Framework - named Cave2 - followed the classical layered architecture presented by Barnes, Harrison, Newton and Spickelmier, but the possibilities granted by the use of the object-oriented framework foundations allowed a series of improvements which were not available in previous approaches: - object-oriented frameworks are extensible by design, thus this should be also true regarding the implemented sets of design data primitives and design tool building blocks. This means that both the design representation model and the software modules dealing with it can be upgraded or adapted to a particular design methodology, and that such extensions and adaptations will still inherit the architectural and functional aspects implemented in the object-oriented framework foundation; - the design semantics and the design visualization are both part of the object-oriented framework, but in clearly separated models. This allows for different visualization strategies for a given design data set, which gives collaborating parties the flexibility to choose individual visualization settings; - the control of the consistency between semantics and visualization - a particularly important issue in a design environment with multiple views of a single design - is also included in the foundations of the object-oriented framework. Such mechanism is generic enough to be also used by further extensions of the design data model, as it is based on the inversion of control between view and semantics. The view receives the user input and propagates such event to the semantic model, which evaluates if a state change is possible. If positive, it triggers the change of state of both semantics and view. Our approach took advantage of such inversion of control and included an layer between semantics and view to take into account the possibility of multi-view consistency; - to optimize the consistency control mechanism between views and semantics, we propose an event-based approach that captures each discrete interaction of a designer with his/her respective design views. The information about each interaction is encapsulated inside an event object, which may be propagated to the design semantics - and thus to other possible views - according to the consistency policy which is being used. Furthermore, the use of event pools allows for a late synchronization between view and semantics in case of unavailability of a network connection between them; - the use of proxy objects raised significantly the abstraction of the integration of design automation resources, as either remote or local tools and services are accessed through method calls in a local object. The connection to remote tools and services using a look-up protocol also abstracted completely the network location of such resources, allowing for resource addition and removal during runtime; - the implemented CAD Framework is completely based on Java technology, so it relies on the Java Virtual Machine as the layer which grants the independence between the CAD Framework and the operating system. All such improvements contributed to a higher abstraction on the distribution of design automation resources and also introduced a new paradigm for the remote interaction between designers. The resulting CAD Framework is able to support fine-grained collaboration based on events, so every single design update performed by a designer can be propagated to the rest of the design team regardless of their location in the distributed environment. This can increase the group awareness and allow a richer transfer of experiences among them, improving significantly the collaboration potential when compared to previously proposed file-based or record-based approaches. Three different case studies were conducted to validate the proposed approach, each one focusing one a subset of the contributions of this thesis. The first one uses the proxy-based resource distribution architecture to implement a prototyping platform using reconfigurable hardware modules. The second one extends the foundations of the implemented object-oriented framework to support interface-based design. Such extensions - design representation primitives and tool blocks - are used to implement a design entry tool named IBlaDe, which allows the collaborative creation of functional and structural models of integrated systems. The third case study regards the possibility of integration of multimedia metadata to the design data model. Such possibility is explored in the frame of an online educational and training platform.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução: Otite média secretora (OMS) e otite média aguda recorrente (OMAR) podem necessitar tratamento cirúrgico para adequada ventilação da orelha média. A abertura clássica do tímpano (timpanocentese) requer incisão por microlanceta sob controle de microscópio cirúrgico e mantém-se patente por alguns dias. Estudos recentes sugerem que a timpanocentese feita por diferentes lasers pode permanecer permeável por maior tempo, o que possibilitaria a normalização da otite média. Objetivo: Comparar a técnica de timpanocentese incisional com microlanceta à timpanocentese feita com laser de argônio. Material e métodos: Estudo experimental com 34 ratos linhagem Wistar, albinos, machos adultos pesando cerca de 300g, anestesiados com cetamina 27 mg/kg e xilazina 2,7 mg/kg, e submetidos à timpanocentese incisional com microlanceta no ouvido direito (ML-OD), e à timpanocentese mediada por laser de argônio no ouvido esquerdo (LA-OE). As timpanocentes foram avaliadas periodicamente até a cicatrização. Resultados: Não houve diferença significativa no tempo de cicatrização das timpanocenteses feitas com laser de argônio ou microlanceta. Todas timpanocenteses cicatrizaram dentro de 10 dias. Conclusão: A timpanocentese com laser de argônio apresentou patência e cicatrização semelhantes à técnica clássica com microlanceta realizada em ratos Wistar sem enfermidades de orelha média.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho relata a utilização de tópicos ligados à Astronomia, como motivação educacional, a fim de inserir o estudo das radiações eletromagnéticas com abordagem na Física Moderna e Contemporânea. Em geral, a bibliografia atual disponível trata deste assunto (sob o título “ondas eletromagnéticas”) no capítulo relacionado a “ondas”, dentro da Física Clássica, não abordando assim, conceitos da Física Moderna: dualidade onda partícula, quantização da energia, efeito fotoelétrico, Lei de Planck, etc. O tema foi abordado utilizando atividades práticas: observação do Sol, observação do céu com telescópio, simulação computacional através de applets disponíveis na Internet, atividades de laboratório, sempre partindo de aspectos relacionados à Astronomia. A proposta foi aplicada em uma turma de terceira série de Ensino Médio, do Instituto Estadual de Educação de Sapiranga, cidade do Vale do Rio dos Sinos. Este trabalho foi embasado pela Teoria de Aprendizagem Significativa de Ausubel e de Novak, e pela Teoria de mediação de Vygotsky. A partir dos dados colhidos através de testes comparativos, entrevistas e depoimentos dos alunos, foi possível detectar que eles estiveram motivados para a aprendizagem, sendo que alguns inclusive passaram a interessar-se mais pela disciplina de Física. Ao finalizar a aplicação desta proposta de trabalho, foi criado um CD com textos, simulações e sugestões para aplicações em sala de aula.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atualmente, o isolamento e a caracterização de actinomicetos tem recebido atenção especial, pois, juntamente com os fungos, eles são os principais responsáveis pela degradação de substâncias de difícil decomposição durante o processo de compostagem. Portanto este trabalho tem por objetivo identificar os actinomicetos isolados durante o processo de compostagem através de métodos de microbiologia clássica e pela amplificação do 16S DNAr. Para a realização deste trabalho foram realizadas seis coletas na Central de Triagem e Compostagem de Resíduos Sólidos de Sapiranga (CETRISA) e três numa composteira da UFRGS. Para o isolamento dos actinomicetos foi utilizada a diluição de 10-3 da amostra e a mesma foi semeada nos meios Jaunsen, 72C e Agar Amido Caseína e incubada nas temperaturas de 37oC, 50ºC e a temperatura ambiente por um período de 10 a 14 dias. A identificação foi realizada através de análise taxonômica dos microcultivos dos isolados e de provas bioquímicas. Foram isolados 153 actinomicetos, destes 73 foram isolados da CETRISA e 80 da composteira da UFRGS. Na primeira, houve o predomínio do gênero Nocardia e na segunda, do gênero Streptomyces. Após a identificação dos actinomicetos o trabalho teve prosseguimento com a amplificação da região 16S do DNAr e digestão dos produtos obtidos com endonucleases de restrição. Foram testadas oito endonucleases de restrição, porém somente a Msp1 e a HinfI produziram resultados favoráveis que puderam separar os isolados em nível de gênero.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é apresentar a base teórica para o problema de aprendizagem através de exemplos conforme as ref. [14], [15] e [16]. Aprender através de exemplos pode ser examinado como o problema de regressão da aproximação de uma função multivaluada sobre um conjunto de dados esparsos. Tal problema não é bem posto e a maneira clássica de resolvê-lo é através da teoria de regularização. A teoria de regularização clássica, como será considerada aqui, formula este problema de regressão como o problema variacional de achar a função f que minimiza o funcional Q[f] = 1 n n Xi=1 (yi ¡ f(xi))2 + ¸kfk2 K; onde kfk2 K é a norma em um espa»co de Hilbert especial que chamaremos de Núcleo Reprodutivo (Reproducing Kernel Hilbert Spaces), ou somente RKHS, IH definido pela função positiva K, o número de pontos do exemplo n e o parâmetro de regularização ¸. Sob condições gerais a solução da equação é dada por f(x) = n Xi=1 ciK(x; xi): A teoria apresentada neste trabalho é na verdade a fundamentação para uma teoria mais geral que justfica os funcionais regularizados para a aprendizagem através de um conjunto infinito de dados e pode ser usada para estender consideravelmente a estrutura clássica a regularização, combinando efetivamente uma perspectiva de análise funcional com modernos avanços em Teoria de Probabilidade e Estatística.