107 resultados para Estratégia em Ambientes Turbulentos


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Casamento aproximado de instâncias é um problema central em muitos processos de gerenciamento de dados, tais como integração de dados, data cleaning e consulta aproximada. O principal objetivo de casamento aproximado é determinar se duas instâncias representam o mesmo objeto do mundo real. Para valores atômicos, diversas funções de similaridade têm sido definidas, que geralmente são dependentes do domínio de valores. Por outro lado, casamento de valores agregados, como tuplas ou árvores XML, ainda é um problema importante. Neste cenário, dois problemas podem ser identificados. O primeiro diz respeito a como os resultados gerados por diferentes funções de similaridade devem ser combinados em um escore único, ou para um escore normalizado. Funções individuais geralmente geram escores que não são comparáveis, pode-se obter diferentes distribuições a partir de cada função. Isto significa que não existe uma forma simples de combinar escores gerados por funções de similaridade distintas usando uma medida simples, em casamento de agregados. Nesta tese, a proposta é, ao invés de utilizar os escores originalmente gerados pelas funções de similaridade, aplicar um método para estimar a precisão dos resultados de cada função, e usar esta precisão estimada como um escore ajustado. Através deste método, a proposta apresentada nesta tese envolve duas contribuições a este problema. Primeiro, é possível permitir que o usuário especifique valores de ponto de corte (thresholds) que sejam significativos, usando para isso um valor de precisão ajustada como um escore de similaridade Além disso, usando o escore ajustado, são obtidos resultados mais precisos em um processo de casamento aproximado de agregados. O segundo problema, surge quando os escores são combinados em casamento de agregados, e diz respeito à função de similaridade utilizada para combinar os valores. Particularmente, um agregado pode ser estruturado de diferentes maneiras, tais como tupla, conjunto e lista. O processo de combinação usado em cada caso deve ser distinto, a fim de se alcançar resultados mais exatos. Entretanto, não é claro como escores de similaridade individuais podem ser combinados para calcular, apropriadamente, escores para um agregado. O processo de combinação deveria ser distinto em cada caso. A contribuição apresentada para este problema é a definição de funções de similaridade específicas para cada tipo de agregado, dependendo da estruturação. Palavras-chave: Similaridade, funções de similaridade, casamento de instâncias, revocação e precisão.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O Brasil é, atualmente, o segundo maior produtor mundial de soja, e as perspectivas econômicas apontam para a liderança da produção nos próximos anos. Esse mercado apresenta-se como o principal segmento do agronegócio, movimentando bilhões de dólares em divisas para a economia do país todos os anos. O preço dessa commodity é estabelecido no mercado internacional e refletido automaticamente para o mercado interno. Essa característica obriga os produtores rurais, cooperativas agropecuárias, processadores, exportadores e outros agentes envolvidos na comercialização da soja a conviverem com oscilações de preço constantemente. Para esses agentes, torna-se necessária a implantação de um instrumento para gerenciamento de risco de preço sob pena de perderem a capacidade de cobrir custos de produção. Este trabalho tem o objetivo de analisar o hedge utilizando contratos futuros como ferramenta para a gestão de risco de preço da soja. O hedge é uma das operações proporcionadas pelos mercados futuros cuja função básica é ser instrumento de gerenciamento de risco de preço. O objetivo principal do hedge é proteger compradores e vendedores contra uma eventual oscilação de preços de um determinado produto. O presente estudo aborda conceitos de risco, mercados futuros e hedge e apresenta características do agronegócio da soja, enfocando, sobretudo, a formação de preço deste ativo. Para ressaltar a importância do assunto tratado, apresenta-se o estudo de caso da Cooperativa Tritícola Mista Alto Jacuí Ltda., que, no ano de 2004, implantou a estratégia de hedge com contratos futuros negociados na Chicago Board of Trade para gestão do risco de preço da soja, obtendo resultados satisfatórios. As conclusões do trabalho demonstram que a consolidação da produção brasileira de soja requer a implementação de modernos instrumentos para a gestão de risco de preços. É de extrema importância que as cooperativas agropecuárias e os grandes produtores rurais tenham conhecimento de opções de estratégias de comercialização visando proteger e fortalecer sua atividade econômica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A pesquisa tem como questão central estudar o caso da Indicação de Procedência Vale dos Vinhedos, a primeira a ser outorgada no Brasil, às vinícolas do Vale dos Vinhedos – Serra Gaúcha/RS. Tem como objetivo geral propor um framework para análise das inovações e das estratégias de cooperação competitiva e testá-lo nas vinícolas que possuem IPVV. Especificamente, visa-se identificar os tipos de inovações, intensidade e impacto na rede de valor e as configurações estratégicas de cooperação competitiva. Para o framework utilizaram-se como referências os frameworks adaptados de Giget (1997), Henderson e Clark (1990), Afhua e Bahram (1995), Nalebuff e Brandenburger (1996) e Dagnino e Padula (2000). O framework propõe as inovações de produto, processo, distribuição e gestão, que ocorrem num contínuo entre incremental – níveis I e II e radical – níveis I e II e apresentam diferentes impactos sobre os stakeholders. Na perspectiva estratégica pressupõe-se que as estratégias ocorrem em nível simples e complexo da rede de valor, envolvendo duas empresas ou um conjunto delas. O delineamento da pesquisa conduz ao estudo qualitativo, exploratório e ao estudo de caso. Foram selecionadas para a pesquisa as vinícolas localizadas no Vale dos Vinhedos que obtiveram a IPVV nos anos de 2001 a 2003, formando um universo de treze empresas e destas doze participaram da pesquisa. Os achados mais significativos relativos às inovações de produto apontam à produção de vinhos assemblage; na inovação de processo destacam-se a reconversão dos vinhedos, a substituição do sistema de condução do mosto e bombeamento para o de gravidade e os sistemas de controles de temperatura e de remontagens automáticas. As ino vações em distribuição abrangem a ampliação dos mercados interno e externo e, em marketing, a identificação nos rótulos do nome geográfico “Vale dos Vinhedos”, seguido da expressão “Indicação de Procedência”, e a colocação do selo da IPVV na cápsula das ga rrafas. As inovações de gestão organizacional são as menos significativas. As inovações de produto e processo são predominantemente radicais; as inovações de distribuição ocorrem num contínuum entre radical e incremental, e as de gestão organizacional são incrementais. A maioria das inovações gera impactos radicais sobre os stakeholders. Os principais achados em relação às estratégias apontam que o processo de formação de estratégias relativo à indicação de procedência é compatibilizado com as normas da Aprovale e do Regulamento da IPVV. As configurações estratégicas interorganizacionais são compostas pelo arranjo produtivo vitivinícola, rede de empresas e alianças estratégicas, as quais são desenvolvidas numa lógica competitiva – cooperar para competir. A estratégia de cooperação competitiva mais representativa é a estratégia de cooperação entre várias empresas num nível simples da rede de valor, representada pela Associação de Produtores de Vinhos Finos Vale dos Vinhedos – Aprovale, a qual gerou as condições para a outorga da indicação de procedência. As inovações e as estratégias de cooperação competitiva, além de contribuírem para consolidar a IPVV, estão lançando os alicerces para a outorga da primeira denominação de origem no Brasil.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The work described in this thesis aims to support the distributed design of integrated systems and considers specifically the need for collaborative interaction among designers. Particular emphasis was given to issues which were only marginally considered in previous approaches, such as the abstraction of the distribution of design automation resources over the network, the possibility of both synchronous and asynchronous interaction among designers and the support for extensible design data models. Such issues demand a rather complex software infrastructure, as possible solutions must encompass a wide range of software modules: from user interfaces to middleware to databases. To build such structure, several engineering techniques were employed and some original solutions were devised. The core of the proposed solution is based in the joint application of two homonymic technologies: CAD Frameworks and object-oriented frameworks. The former concept was coined in the late 80's within the electronic design automation community and comprehends a layered software environment which aims to support CAD tool developers, CAD administrators/integrators and designers. The latter, developed during the last decade by the software engineering community, is a software architecture model to build extensible and reusable object-oriented software subsystems. In this work, we proposed to create an object-oriented framework which includes extensible sets of design data primitives and design tool building blocks. Such object-oriented framework is included within a CAD Framework, where it plays important roles on typical CAD Framework services such as design data representation and management, versioning, user interfaces, design management and tool integration. The implemented CAD Framework - named Cave2 - followed the classical layered architecture presented by Barnes, Harrison, Newton and Spickelmier, but the possibilities granted by the use of the object-oriented framework foundations allowed a series of improvements which were not available in previous approaches: - object-oriented frameworks are extensible by design, thus this should be also true regarding the implemented sets of design data primitives and design tool building blocks. This means that both the design representation model and the software modules dealing with it can be upgraded or adapted to a particular design methodology, and that such extensions and adaptations will still inherit the architectural and functional aspects implemented in the object-oriented framework foundation; - the design semantics and the design visualization are both part of the object-oriented framework, but in clearly separated models. This allows for different visualization strategies for a given design data set, which gives collaborating parties the flexibility to choose individual visualization settings; - the control of the consistency between semantics and visualization - a particularly important issue in a design environment with multiple views of a single design - is also included in the foundations of the object-oriented framework. Such mechanism is generic enough to be also used by further extensions of the design data model, as it is based on the inversion of control between view and semantics. The view receives the user input and propagates such event to the semantic model, which evaluates if a state change is possible. If positive, it triggers the change of state of both semantics and view. Our approach took advantage of such inversion of control and included an layer between semantics and view to take into account the possibility of multi-view consistency; - to optimize the consistency control mechanism between views and semantics, we propose an event-based approach that captures each discrete interaction of a designer with his/her respective design views. The information about each interaction is encapsulated inside an event object, which may be propagated to the design semantics - and thus to other possible views - according to the consistency policy which is being used. Furthermore, the use of event pools allows for a late synchronization between view and semantics in case of unavailability of a network connection between them; - the use of proxy objects raised significantly the abstraction of the integration of design automation resources, as either remote or local tools and services are accessed through method calls in a local object. The connection to remote tools and services using a look-up protocol also abstracted completely the network location of such resources, allowing for resource addition and removal during runtime; - the implemented CAD Framework is completely based on Java technology, so it relies on the Java Virtual Machine as the layer which grants the independence between the CAD Framework and the operating system. All such improvements contributed to a higher abstraction on the distribution of design automation resources and also introduced a new paradigm for the remote interaction between designers. The resulting CAD Framework is able to support fine-grained collaboration based on events, so every single design update performed by a designer can be propagated to the rest of the design team regardless of their location in the distributed environment. This can increase the group awareness and allow a richer transfer of experiences among them, improving significantly the collaboration potential when compared to previously proposed file-based or record-based approaches. Three different case studies were conducted to validate the proposed approach, each one focusing one a subset of the contributions of this thesis. The first one uses the proxy-based resource distribution architecture to implement a prototyping platform using reconfigurable hardware modules. The second one extends the foundations of the implemented object-oriented framework to support interface-based design. Such extensions - design representation primitives and tool blocks - are used to implement a design entry tool named IBlaDe, which allows the collaborative creation of functional and structural models of integrated systems. The third case study regards the possibility of integration of multimedia metadata to the design data model. Such possibility is explored in the frame of an online educational and training platform.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O Planejamento Estratégico é peça da maior importância em uma Organização. Normalmente, após exaustivas reuniões e custos significativos em sua elaboração, ele é engavetado ou passa a ser uma peça decorativa. Esta dissertação apresenta a construção do Painel de Pilotagem para a utilização do Balanced Scorecard em empresa de autogestão, sem fins lucrativos, que atua na área de saúde. Para atingir os objetivos da pesquisa, o método foi o de pesquisa-ação. O Balanced Scorecard é uma ferramenta para a implantação da Estratégia Empresarial. A discussão, os debates da Estratégia, a sua demonstração e aplicação e acompanhamento via Painel de Pilotagem são um diferencial significativo para o acompanhamento da gestão. O alinhamento obtido nos dez meses de reuniões para a construção do Painel de Pilotagem, na empresa pesquisada, demonstra o interesse da organização em efetivar a implantação de seu Planejamento Estratégico. Com a implantação do BSC, a determinação dos rumos do negócio deixará de apoiar-se basicamente em análise de dados do passado, para demonstrar o desempenho do que foi feito na Empresasaúde RS, mas possibilitará, também, uma melhor projeção e visualização do futuro, para demonstrar o que deverá ser feito, o caminho a ser percorrido.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo desta dissertação é apresentar uma análise das condições competitivas e das características estratégicas da indústria brasileira de software no segmento de Outsourcing, considerando o período de 1995 a 2005. O estudo foi desenvolvido por meio de uma pesquisa de campo com 10 empresas de software, que foram divididas de acordo com seu mercado de atuação: interno e externo. Os resultados apontam as diferenças no padrão de concorrência entre esses dois mercados, bem como algumas diferenças chaves entre os diversos subsegmentos do mercado de Outsourcing.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O crescente aprimoramento tecnológico ocorrido nos últimos anos principalmente nas áreas de eletrônica analógica e digital, proporcionou um grande desenvolvimento dos equipamentos destinados à captação, registro e reprodução sonora - componentes dos sistemas de áudio – tornando-os muito mais sofisticados e complexos. Por sua vez, estes sistemas de áudio encontram-se cada vez mais presentes em diversos tipos de ambientes tais como teatros, casa de shows e auditórios, cumprindo um papel fundamental na programação do recinto. Entretanto, o projeto acústico destes ambientes, em sua grande maioria, não tem levado em consideração as características do sistema de áudio a ser instalado, resultando em prejuízo do desempenho acústico do ambiente e conseqüente insatisfação dos usuários. Somado a este fato, tem-se dado pouca atenção aos parâmetros de qualidade acústica de ambientes destinados à reprodução musical, inicialmente desenvolvidas por Beraneck, 1962, abrindo-se mão, portanto, de ótimas ferramentas de análise que poderiam servir para melhorar o desempenho acústico destes ambientes. Como conseqüência destes resultados, vem crescendo a idéia entre os profissionais da área de acústica e de áudio que o ideal é otimizar o sistema de som com o ambiente para que os melhores resultados sejam alcançados É neste cenário que o presente trabalho se propõe a discutir as questões acústicas juntamente com as questões de áudio com o objetivo de apresentar os principais conce itos, técnicas e procedimentos referentes ao projeto e análise da acústica de ambientes e de sistemas de áudio. Para tanto, foi realizada uma revisão bibliográfica que apresenta os parâmetros objetivos de qualidade acústica ambiental juntamente com um método de avaliação da qualidade acústica de salas, proposta por Arau, 1999. Também apresenta os principais conceitos que norteiam o projeto de sistemas de áudio, mostrando os principais equipamentos envolvidos e suas características técnicas. Ainda foi realizado um estudo sobre as diversas técnicas de medição de resposta impulsiva com as quais os sistemas, tanto acústico quanto de áudio, podem ser caracterizados chegando a conclusão que a técnica de varredura logarítmica de seno é aquela que mais se adapta às medições acústicas por apresentar melhor relação sinal/ruído e imunidade à distorções inerentes aos transdutores eletromecânicos utilizados nestes tipo de medição Para concretizar os conceitos apresentados no trabalho é realizada uma análise do sistema som-ambiente do Salão de Atos da Universidade Federal do Rio Grande do Sul (UFRGS). Como resultado desta análise conclui-se que a amplificação eletrônica, apesar de ser adequada para atender às necessidades da aplicação, tem sua capacidade limitada pelas caixas acústicas. Estas por sua vez, em conjunto com as características do ambiente, são capazes de proporcionar boa inteligibilidade de voz na área de cobertura.Também conclui-se que o ambiente de Salão de Atos possui absorção excessiva em médias-altas freqüências e baixa audibilidade nas posições mais distantes do palco. Ainda, é mostrado que, devido ao posicionamento das caixas acústicas no palco, existem regiões na área da platéia que são atingidas pelo efeito de eco.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho de conclusão apresenta um método e uma ferramenta para avaliação da maturidade e da capacitação de ambientes de desenvolvimento de software baseado no uso da abordagem Goal/Question/Metric-GQM combinada aos métodos tradicionais de avaliação já existentes para o modelo Capability Maturity Model-CMM. A aplicação deste método através da ferramenta proposta permitirá a organização avaliada estabelecer o grau de conformidade preliminar dos seus processos em relação às exigências do modelo CMM. Esta avaliação poderá ser utilizada como ponto de partida para o estabelecimento de um processo de melhoria. O modelo CMM descreve uma série de estágios de maturidade que são atingidos através da satisfação de metas estabelecidas para áreas-chave do processo de desenvolvimento de software da organização. A evolução deste modelo, chamada de CMMI, Capability Maturity Model Integrated, possibilita que as organizações optem pela forma de implementação do modelo. Esta opção pode se dar através do uso do CMMI em estágios, vertical utilizando os níveis tradicionais do modelo, ou contínua; horizontal baseada nas áreas-chave de processo. Da mesma forma, a avaliação pode ser realizada sobre qualquer modelo escolhido. O modelo GQM descreve uma estrutura hierárquica baseada na existência de metas de melhoria preestabelecidas das quais são extraídas métricas e questões que as satisfazem. O nível de satisfação dessas metas é obtido através da análise das métricas relativas às questões aplicadas ao foco da avaliação Algumas ferramentas para avaliação dos processos relativos ao modelo CMM são apresentadas, tais como o questionário da maturidade e os modelos existentes para a criação de métodos de avaliação, CMM Apraisal Framework-CAF e Apraisal Requirements for CMMI-ARC. O diferencial apresentado é o estabelecimento de métricas objetivas e regras de interpretação dessas para a definição da satisfação de uma determinada área-chave de processo, ACP, do nível 2 do modelo CMMI. Além dessas contribuições vale destacar o estabelecimento de questões adicionais ao questionário da maturidade com o objetivo de capturar essas métricas e a criação de grafos GQM para cada ACP do nível 2 do CMMI. Esses grafos permitem a visualização do relacionamento existente entre cada ACP do nível 2 do CMMI com suas metas, questões e métricas. A aplicação do método e da ferramenta será demonstrada através da utilização de um estudo de caso aplicado na empresa DWA Informática Ltda.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesta pesquisa busco traçar uma análise sobre o papel da atividade de campo como estratégia no ensino da Geografia, através da análise da minha prática e entrevistas feitas com professores da área. Traço o histórico da atividade de campo e a partir daí, coloco as possibilidades como: papel da vivência, do prazer e o saber, conhecimento objetivo do mundo e o conhecimento intersubjetivo do outro, o lugar e a sua transcendência, o olhar sensível sobre a paisagem. Finalizo apontando as limitações colocadas por eles ao longo da suas práticas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo discute a possibilidade do emprego de ambientes computacionais de aprendizagem para a educação matemática de graduandos universitários. Além da organização do conteúdo matemático de Cálculo Diferencial e Integral em atividades realizadas no ambiente implementou-se um diálogo reflexivo entre os participantes da experiência. Busca-se analisar se o diálogo promove tomadas de consciência tanto no sentido dos conteúdos aprendidos (operatividade conceitual) como dos próprios modos dos alunos aprender e significar os conteúdos matemáticos. A Epistemologia Genética de Piaget e a Pedagogia de Freire são as teorias que fundamentam as leituras dos diálogos promovidos e analisados. São criados e analisados espaços de experimentação, de conversação, em que sejam possíveis a compreensão das noções matemáticas, a observação questionadora e a possibilidade de argumentação; que permita estimular a capacidade de criar e recriar, a fim de confirmar a relação de co-implicação entre as concepções epistemológicas do aluno e a aprendizagem decorrente de seu envolvimento em diálogos matemáticos. A análise dos dados demonstra que a experiência de aprendizagem configurada possibilitou a realização de atividades de interação com cooperação, que promove descentração e a conseqüente tomada de consciência (do ponto de vista pessoal e das atividades próprias), culminando com o desenvolvimento de autonomia intelectual, necessária à aprendizagem. Essa análise também demonstra a importância de pensar a respeito do que sabemos, como sabemos, como fazemos para saber e o que estamos fazendo e aprendendo, o que ajuda a aumentar o grau de consciência e, conseqüentemente, promove melhores níveis de aprendizagem, a partir da participação ativa em diálogos, com demonstração de reflexão crítica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente investigação pretende compreender as relações que envolvem a atuação do professor no laboratório de informática. O laboratório de informática representa neste trabalho um ambiente informatizado de aprendizagem na medida em que é usado por professores e alunos em atividades pedagógicas que propiciam processos de aprendizagem. A perspectiva da pesquisa visa, então, uma discussão a respeito da importância das intervenções pedagógicas do professor em ambientes informatizados de aprendizagem. O conceito de intervenção pedagógica, como um aspecto relevante na pesquisa, foi construído à luz da teoria freireana e de todo o processo investigativo. Os processos de aprendizagem também foram relevados neste trabalho, considerando que a relação de ensino é sempre vinculada às relações de aprendizagem. Neste sentido, foram feitos estudos na linha interacionista tendo como autores centrais Piaget e Vygotsky. Caracterizo o estudo na perspectiva da abordagem qualitativa, tendo como foco o estudo de caso do laboratório de informática. Os dados foram coletados através da observação participante e de entrevistas não estruturadas. Os resultados trazem indícios de que os processos de intervenção pedagógica podem ser um referencial nas atividades desenvolvidas naquele espaço. As relações estabelecidas em ambientes informatizados de aprendizagem, por professores e alunos, influenciam de forma singular na maneira como a aprendizagem se processa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A mensuração do desempenho organizacional é um assunto que tem sido muito estudado nos anos mais recentes, sendo esta uma preocupação tanto acadêmica quanto dos executivos de negócio. Foram feitos diversos estudos sobre o tema, uma vez que tais estudos foram elaborados obedecendo aos critérios exigidos no contexto. Desta forma, a presente pesquisa buscou encontrar elementos de apoio à estruturação de um Sistema de Medidas de Desempenho que seja reconhecido como de vital importância enquanto ferramenta auxiliar para a tomada de decisões. Estes elementos surgiram através da análise do processo de planejamento estratégico, uma vez que é a partir deste processo que se baseia a estruturação do sistema. Através do método de estudo de múltiplos casos, a presente pesquisa estudou duas empresas do setor de distribuição. A primeira destas estava em uma etapa inicial do processo de estruturação, onde, durante esta formulação, predomina o empirismo; e a segunda, em sua etapa final, o que permitiu a realização da pesquisa com uma visão deste processo de estruturação em suas diferentes etapas. Os resultados da pesquisa trazem à luz a relevância dos elementos culturais e ambientais para a estruturação de um Sistema de Medidas de Desempenho. Do mesmo modo, estes resultados destacam a importância de se executar os princípios de gestão estratégica durante a operacionalização deste sistema. Como produto final desta pesquisa, é apresentado um modelo de estruturação de um Sistema de Medidas de Desempenho para empresas do setor de distribuição, cujos principais elementos são os de Política e Cultura Organizacional, de Ambientes Externo e Interno, de Estratégia, de Objetivos Estratégicos e de Princípios de Gestão.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No presente estudo, são apresentadas soluções numéricas de problemas de Engenharia, na área de Dinâmica dos Fluidos Computacional, envolvendo fluidos viscosos, em escoamentos incompressíveis, isotérmicos e não isotérmicos, em regime laminar e turbulento, podendo envolver transporte de massa. Os principais objetivos deste trabalho são a formulação e a aplicação de uma estratégia de adaptação automática de malhas e a inclusão de modelos de viscosidade turbulenta, integrados com um algoritmo utilizado para simular escoamentos de fluidos viscosos bi e tridimensionais, no contexto de malhas não estruturadas. O estudo é dirigido no sentido de aumentar o conhecimento a respeito das estruturas de escoamentos turbulentos e de estudar os efeitos físicos no transporte de quantidades escalares propiciando, através de técnicas de adaptação automática de malhas, a obtenção de soluções numéricas precisas a um custo computacional otimizado. As equações de conservação de massa, de balanço de quantidade de movimento e de quantidade escalar filtradas são utilizadas para simular as grandes escalas de escoamentos turbulentos e, para representar as escalas submalha, são utilizados dois modelos de viscosidade turbulenta: o modelo de Smagorinsky clássico e o modelo dinâmico. Para obter soluções numéricas com precisão, é desenvolvida e implementada uma estratégia de adaptação automática de malhas, a qual é realizada simultaneamente e interativamente com a obtenção da solução. O estudo do comportamento da solução numérica é fundamentado em indicadores de erro, com o propósito de mapear as regiões onde certos fenômenos físicos do escoamento ocorrem com maior intensidade e de aplicar nestas regiões um esquema de adaptação de malhas. A adaptação é constituída por processos de refinamento/desrefinamento e por um processo de suavização laplaciana. Os procedimentos para a implementação dos modelos de viscosidade turbulenta e a estratégia de adaptação automática de malhas são incorporados ao código computacional de elementos finitos tridimensionais, o qual utiliza elementos tetraédricos lineares. Aplicações de escoamentos de fluidos viscosos, incompressíveis, isotérmicos e não isotérmicos em regime laminar e turbulento são simuladas e os resultados são apresentados e comparados com os obtidos numérica ou experimentalmente por outros autores.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os projetos de CIs (Circuitos Integrados) atualmente compreendem muitas tarefas para sua execução. Durante um fluxo de projeto de CI são necessárias ferramentas que lidam com essas diferentes tarefas. Algumas empresas compilam diversas ferramentas em um único ambiente, ou framework, onde tais ferramentas são adaptadas para interagir entre si. O uso desses frameworks é suficiente para muitos projetos, porém podem existir requisitos que obriguem a utilização de ferramentas independentes para suprir deficiências dos ambientes, exigindo a utilização conjunta de ferramentas não projetadas para cooperar. A interoperabilidade entre sistemas computacionais tem se tornado um tópico de extrema importância. Ela possibilita a execução conjunta de ferramentas, diminuindo a necessidade de intervenção humana para tanto. A interoperação entre ferramentas independentes e frameworks é importante não somente para facilitar o uso conjunto de ferramentas, mas também permite que outros tópicos sejam explorados. Entre eles estão o trabalho de equipes geograficamente distantes e a possibilidade de trabalho com grandes quantidades de dados, que são duas questões importantes para microeletrônica. Ainda, a interoperação entre ferramentas independentes e ambientes traz benefícios mútuos: as ferramentas podem utilizar funcionalidades dos ambientes e se adaptar aos fluxos de projeto deles; os ambientes podem ter suas funcionalidades estendidas pela inclusão de novas ferramentas em seu trabalho. Essas questões são especialmente importantes para pequenas empresas ou ferramentas acadêmicas que não têm condições de incorporar em suas ferramentas muitos dos procedimentos que os ambientes oferecem. Este trabalho apresenta uma proposta para auxiliar a interoperação entre ferramentas independentes e frameworks relevantes para a microeletrônica, através de um protocolo inspirado em SOAP (Simple Object Access Protocol), além de oferecer ferramentas de auxílio para a adaptação ao protocolo proposto. A interação com os frameworks é feita através de linguagens script disponibilizadas por eles. Estudos de caso são apresentados para demonstrar a usabilidade da proposta.