62 resultados para Estruturas não lineares
Resumo:
Estruturas de informações organizadas hierarquicamente estão presentes em muitas áreas. Pode-se citar como exemplos diagramas organizacionais, árvores genealógicas, manuais, estruturas de diretórios, catálogos de bibliotecas, etc. Na última década, várias técnicas têm sido desenvolvidas a fim de permitir a navegação em espaços de informações organizados dessa forma. Essas técnicas buscam proporcionar uma melhor percepção de alguns atributos ou fornecer mecanismos de interação adicionais que vão além da tradicional navegação com barras de rolagem ou câmeras 3D em visualização bi e tridimensional, respectivamente. Dentre as várias alternativas de representação utilizadas nas diversas técnicas para dados hierárquicos destacam-se dois grandes grupos: as que utilizam a abordagem de preenchimento do espaço e as baseadas em diagramas de nodos e arestas. Na primeira o espaço disponível para a representação da estrutura é subdividido recursivamente, de forma que cada subárea representa um nodo da hierarquia. Na segunda, os nodos são representados por figuras geométricas e os relacionamentos, por linhas. Outro critério utilizado para classificá-las é a estratégia que cada uma aplica para exibir os detalhes presentes na estrutura. Algumas técnicas utilizam o método Foco+Contexto de modo a fornecer uma representação visual inteira do espaço de informações, bem como uma visão detalhada de itens selecionados na mesma área de exibição. Outras utilizam a abordagem Visão Geral+Detalhe que possui a característica de exibir essas duas partes (conjunto total e subconjunto de interesse) em áreas separadas. O objetivo do presente trabalho é investigar a integração dessas duas abordagens a partir da proposta da técnica Bifocal Tree. Esta estrutura utiliza um diagrama de nodos e arestas e incorpora os conceitos existentes na abordagem Foco+Contexto guardando, porém uma divisão mais perceptível da visão de contexto e de detalhe. Ela introduz o uso de um segundo foco proporcionando duas áreas de visualização onde são exibidos dois sub-diagramas conectados entre si. Um corresponde à subárvore que contém o trecho da estrutura de interesse do usuário, enquanto o outro representa o contexto da hierarquia visualizada. Possui ainda alguns mecanismos de interação a fim de facilitar a navegação e a obtenção das informações exibidas na estrutura. Experimentos baseados em tarefas realizadas por usuários com a Bifocal Tree, o Microsoft Windows Explorer e o browser MagniFind foram utilizados para a avaliação da técnica demonstrando suas vantagens em algumas situações.
Resumo:
O presente trabalho implementa um método computacional semi-automático para obter medidas de estruturas cardíacas de fetos humanos através do processamento de imagens de ultra-som. Essas imagens são utilizadas na avaliação cardíaca pré-natal, permitindo que os médicos diagnostiquem problemas antes mesmo do nascimento. A dissertação é parte de um projeto desenvolvido no Instituto de Informática da Universidade Federal do Rio Grande do Sul, denominado SEGIME (Segmentação de Imagens Médicas). Neste projeto, está sendo desenvolvida uma ferramenta computacional para auxiliar na análise de exames ecocardiográficos fetais com o apoio da equipe de Cardiologia Fetal do Instituto de Cardiologia do Rio Grande do Sul. O processamento de cada imagem é realizado por etapas, divididas em: aquisição, pré-processamento, segmentação e obtenção das medidas. A aquisição das imagens é realizada por especialistas do Instituto de Cardiologia. No pré-processamento, é extraída a região de interesse para a obtenção das medidas e a imagem é filtrada para a extração do ruído característico das imagens de ultra-som. A segmentação das imagens é realizada através de redes neurais artificiais, sendo que a rede neural utilizada é conhecida como Mapa Auto-organizável de Kohonen. Ao final do processo de segmentação, a imagem está pronta para a obtenção das medidas. A técnica desenvolvida nesta dissertação para obtenção das medidas foi baseada nos exames realizados pelos especialistas na extração manual de medidas. Essa técnica consiste na análise da linha referente à estrutura de interesse onde serão detectadas as bordas. Para o início das medidas, é necessário que o usuário indique o ponto inicial sobre uma borda da estrutura. Depois de encontradas as bordas, através da análise da linha, a medida é definida pela soma dos pixels entre os dois pontos de bordas. Foram realizados testes com quatro estruturas cardíacas fetais: a espessura do septo interventricular, o diâmetro do ventrículo esquerdo, a excursão do septum primum para o interior do átrio esquerdo e o diâmetro do átrio esquerdo. Os resultados obtidos pelo método foram avaliados através da comparação com resultados de referência obtidos por especialistas. Nessa avaliação observou-se que a variação foi regular e dentro dos limites aceitáveis, normalmente obtida como variação entre especialistas. Desta forma, um médico não especializado em cardiologia fetal poderia usar esses resultados em um diagnóstico preliminar.
Resumo:
Misturas de Polietileno de Baixa Densidade (PEBD) com diferentes tipos e proporções de Polietilenos Lineares de Baixa Densidade (PELBD) foram preparadas em extrusora de rosca simples ou dupla a fim de verificar a influência destes últimos nas propriedades das misturas e a eficiência das extrusoras na preparação das mesmas. Para tanto foram utilizados polietilenos lineares comerciais, com estruturas moleculares diversas devido ao tipo de comonômeros de 1-octeno (C8), 1-hexeno (C6) ou 1-buteno (C4) e diferentes processos de polimerização. Polietilenos lineares de baixa densidade e polietileno de baixa densidade puros foram avaliados a fim de relacionar suas propriedades com suas estruturas. As misturas de PEBD com PELBD foram avaliadas através de reometria capilar e rotacional, calorimetria diferencial de varredura (DSC), plastometria e análise dinâmico-mecânica (DMA). As misturas de PEBD com PELBD com comonômero 1-buteno e 1-octeno, preparadas em extrusora de rosca simples ou dupla, não apresentaram diferenças no perfil das curvas de viscosidade, observando-se, entretanto, diferenças no perfil das mesmas para as misturas de PEBD com o PELBD com comonômero 1-hexeno. Verificou-se que os valores de índice de fluidez não variaram linearmente com a adição do PELBD na mistura Verificou-se que a adição de PELBD no PEBD modifica significativamente a viscosidade aparente da mistura na faixa de taxa de cisalhamento avaliada. Os polietilenos lineares de baixa densidade apresentaram deformação majoritariamente viscosa quando submetidos a condições cisalhantes e o módulo de perda G” foi superior ao módulo de armazenamento G’. Verificou-se que com o aumento da massa molar do PELBD e do teor deste na mistura ocorreu um aumento do módulo de perda G”. O aumento de cerca de 2% no teor de comonômero não modifica o comportamento viscoelástico do PELBD puro. Pela avaliação dos termogramas das misturas, observou-se que o aumento da concentração de PELBD, causa uma variação no comportamento térmico das mesmas com o conseqüente alargamento da faixa de fusão. O aumento na massa molar dos PELBD de 67.200 g/mol a 153.500 g/mol não influencia significativamente o comportamento térmicos dos mesmos.
Resumo:
Neste trabalho é dado ênfase à inclusão das incertezas na avaliação do comportamento estrutural, objetivando uma melhor representação das características do sistema e uma quantificação do significado destas incertezas no projeto. São feitas comparações entre as técnicas clássicas existentes de análise de confiabilidade, tais como FORM, Simulação Direta Monte Carlo (MC) e Simulação Monte Carlo com Amostragem por Importância Adaptativa (MCIS), e os métodos aproximados da Superfície de Resposta( RS) e de Redes Neurais Artificiais(ANN). Quando possível, as comparações são feitas salientando- se as vantagens e inconvenientes do uso de uma ou de outra técnica em problemas com complexidades crescentes. São analisadas desde formulações com funções de estado limite explícitas até formulações implícitas com variabilidade espacial de carregamento e propriedades dos materiais, incluindo campos estocásticos. É tratado, em especial, o problema da análise da confiabilidade de estruturas de concreto armado incluindo o efeito da variabilidade espacial de suas propriedades. Para tanto é proposto um modelo de elementos finitos para a representação do concreto armado que incorpora as principais características observadas neste material. Também foi desenvolvido um modelo para a geração de campos estocásticos multidimensionais não Gaussianos para as propriedades do material e que é independente da malha de elementos finitos, assim como implementadas técnicas para aceleração das avaliações estruturais presentes em qualquer das técnicas empregadas. Para o tratamento da confiabilidade através da técnica da Superfície de Resposta, o algoritmo desenvolvido por Rajashekhar et al(1993) foi implementado. Já para o tratamento através de Redes Neurais Artificias, foram desenvolvidos alguns códigos para a simulação de redes percéptron multicamada e redes com função de base radial e então implementados no algoritmo de avaliação de confiabilidade desenvolvido por Shao et al(1997). Em geral, observou-se que as técnicas de simulação tem desempenho bastante baixo em problemas mais complexos, sobressaindo-se a técnica de primeira ordem FORM e as técnicas aproximadas da Superfície de Resposta e de Redes Neurais Artificiais, embora com precisão prejudicada devido às aproximações presentes.
Resumo:
A paralelização de métodos de resolução de sistemas de equações lineares e não lineares é uma atividade que tem concentrado várias pesquisas nos últimos anos. Isto porque, os sistemas de equações estão presentes em diversos problemas da computação cientí ca, especialmente naqueles que empregam equações diferenciais parciais (EDPs) que modelam fenômenos físicos, e que precisam ser discretizadas para serem tratadas computacionalmente. O processo de discretização resulta em sistemas de equações que necessitam ser resolvidos a cada passo de tempo. Em geral, esses sistemas têm como características a esparsidade e um grande número de incógnitas. Devido ao porte desses sistemas é necessária uma grande quantidade de memória e velocidade de processamento, sendo adequado o uso de computação de alto desempenho na obtenção da solução dos mesmos. Dentro desse contexto, é feito neste trabalho um estudo sobre o uso de métodos de decomposição de domínio na resolução de sistemas de equações em paralelo. Esses métodos baseiam-se no particionamento do domínio computacional em subdomínios, de modo que a solução global do problema é obtida pela combinação apropriada das soluções de cada subdomínio. Uma vez que diferentes subdomínios podem ser tratados independentemente, tais métodos são atrativos para ambientes paralelos. Mais especi camente, foram implementados e analisados neste trabalho, três diferentes métodos de decomposição de domínio. Dois desses com sobreposição entre os subdomínios, e um sem sobreposição. Dentre os métodos com sobreposição foram estudados os métodos aditivo de Schwarz e multiplicativo de Schwarz. Já dentre os métodos sem sobreposição optou-se pelo método do complemento de Schur. Todas as implementações foram desenvolvidas para serem executadas em clusters de PCs multiprocessados e estão incorporadas ao modelo HIDRA, que é um modelo computacional paralelo multifísica desenvolvido no Grupo de Matemática da Computação e Processamento de Alto Desempenho (GMCPAD) para a simulação do escoamento e do transporte de substâncias em corpos de águas.
Resumo:
Devido a um mercado automotivo altamente competitivo e globalizado, as empresas buscam aperfeiçoar cada vez mais seus produtos, investindo em pesquisa e desenvolvimento em busca de produtos melhores, mais seguros e mais confiáveis. Dentro desse contexto, procurou-se aprofundar os estudos sobre fadiga e fadiga de contato, a fim de se obter um embasamento teórico sobre as possíveis causas de trincas e suas conseqüências, em componentes submetidos a esforços cíclicos e a temperaturas elevadas. Importante é salientar que as altas temperaturas resultam em transformações estruturais no ferro fundido. Posteriormente a esse embasamento teórico, realizou-se um caso de estudo (tambor de freio), buscando subsídios e informações sobre freios, tambores de freios e sobre materiais utilizados em sua fabricação. Sobre ele diversos tipos de análise foram realizados; análises de tensões, análises metalográficas em corpos de prova com e sem trinca e simulações da previsão da vida em fadiga, utilizando o modelo de Paris em programas matemáticos. Paralelos a esses estudos, foram realizados testes de eficiência em dinamômetro utilizando diferentes materiais. Foram utilizados componentes em Ferro Fundido Cinzento e em Ferro Fundido Vermicular a fim de se poder avaliar o comportamento dos materiais em aplicações em que se tem a fadiga de contato. Finalmente, são apresentados os resultados das análises e dos testes realizados, fazendose uma discussão acerca dos mesmos, sendo então apresentadas às conclusões e as sugestões para estudos futuros.
Resumo:
Neste trabalho, foram analisadas, implementadas e mostradas as características de uma interface com estrutura de programação genérica para o ambiente Windows, criando facilidades de rapidez, confiabilidade e a apresentação de resultados aos usuários do sistema matemático Maple na criação e uso de aplicações matemáticas. A interface utilizou como modelo de implementação cálculos modais de vigas clássicas de Euler-Bernoulli. O usuário encontra, em um único sistema, cálculo para vigas clássicas, terá uma entrada de dados facilitada de variáveis que serão substituídas automaticamente no programa fonte da viga e a geração de resultados em um ambiente amigável com dados e gráficos mostrados de forma organizados.
Resumo:
Com o aperfeiçoamento de técnicas de aquisição de imagens médicas, como, por exemplo, a tomografia computadorizada e ressonância magnética, a capacidade e a fidelidade do diagnóstico por imagens foram ampliadas. Atualmente, existe a tendência de utilizarem-se imagens através de diversas modalidades para um único diagnóstico, principalmente no caso de doenças graves. Entretanto, o registro e a fusão dessas imagens, chamadas mutimodais, em uma única representação 3D do paciente é uma arefa extremamente dif[icil, que consome tempo e que está sujeita a erros. Sendo assim, a integração de imagens de diferentes modalidades tem sido objeto de pesquisa sob a denominação de Visualização de Volumes de Dados Multimodais. Sistemas desenvolvidos com este objetivo são usados, principalmente, para combinar informações metabólicas e funcionais com dados de anatomia, aumentando a precisão do diagnóstico, uma vez que possibilitam extrrair uma superfície ou região da imagem que apresenta a anatomia, e, então, observar a atividade funcional na outra modalidade. Durante a análise de tais imagens, os médicos estão interessados e quantificar diferentes estruturas. Seusobjetivos envolvem, por exemplo, a visualização de artérias e órgãos do corpo humano para análise de patologias, tais como tumores, má-formações artério-venosas, ou lesões em relação às estuturas que as circundam. Assim, um dos principais obetivos de um algoritmo de visualização volumétrica é permitir a identificação e exploração de estruturas internas no volume. Como o volume é normalmente um "bloco de dados", não se pode visualizar o seu interior, a menos que se assuma que é possível ver através de voxels transparentes, ou que é possivel remover voxels que estão na frente na qual o usuário está interessado, o que foi feito através de técnicas de segmentação ou de corte. Este trabalho presenta uma abordagem para a visualização de estruturas internas em volumes de dados multimodais. A abordagem está fundamentada na utilização de ferramentas de corte, tanto geométricas quanto baseadas em conteúdo, evitando, assim, o uso de técnicas de segmentação; e na integração dos dados multimodais na etapa de acumulação de pipeline de visualização volumétrica. Considerando que as aplicações que suportam este tipo de visualização envolvem a integração de várias ferramentas, tais como registro, corte e visualização, também é apresentado o projeto de um framework que permite esta integração e um alto grau de interação com usuário. Para teste e validação das técnicas de visualização de estruturas internas propostas e do algoritmo desenvolvido, que consiste numa extensão do algoritmo de ray casting tradicional, foram implementadas algumas classes desse framework. Uma revisão baseada na análise e na classificação das ferramentas de corte e funções de transferências, que correspondem a técnicas que permitem visualizar estruturas internas, também é apresentada.
Resumo:
o objetivo principal da pesquisa é analisar a influência conjunta do tamanho e da velocidade de deformação (ou velocidade de alongamento) nas propriedades mecânicas do aço, procurando determinar a possível existência de acoplamento produzido com a variação conjunta dos dois parâmetros. A pesquisa inclui a revisão bibliográfica, a análise teórica do assunto e um estudo experimental com 130 corpos de prova de diferentes tamanhos, extraídos duma única chapa grossa de aço, ensaiados com diferentes velocidades de deformação, obtendo resultados de distintas variáveis (resistência à tração, deformação de ruptura, energia consumida por unidade de volume, deformação correspondente à resistência à tração e redução da área na zona de escoamento). As principais conclusões da análise teórica são: a) Levando em consideração que o conceito de comprimento característico do material é de fundamental importância para interpretar o efeito de tamanho, se determina a forma geral da função f que define o fenômeno, para materiais com um e dois comprimentos característicos. b) Por analogía, para analisar o efeito produzido pela velocidade de deformação se pode supor a existência de uma, o mais de uma, velocidade de deformação característica do material, resultando uma função f que tem a mesma forma geral que no efeito de tamanho. c) Os atuais modelos que interpretam os efeitos de tamanho e de velocidade de deformação podem ser expressados na forma das expressões gerais encontradas. d) Também se determina a forma geral da função.f que define o efeito conjunto de tamanho e de velocidade de deformação quando não existe acoplamento das duas variáveis e no caso geral de um material com um comprimento e uma velocidade de deformação característica Os principais resultados do estudo experimental são: a) A variação das propriedades quando varia o tamanho, a velocidade de deformação, a posição na espessura e a região da qual é extraído o corpo de prova. b) Existe acoplamento dos dois efeitos claramente significativo para a resistência à tração e a deformação correspondente à resistência à tração, apenas significativo para a deformação de ruptura e a energia consumida por unidade de volume e não significativo para a redução da área na zona de escoamento. c) Do estudo experimental da resistência à tração resulta que o acoplamento dos dois efeitos é tal que quando aumenta a velocidade de deformação e diminui o tamanho o efeito conjunto se acentua e quando diminui a velocidade de deformação e aumenta o tamanho o efeito conjunto se atenua. d) Com base nos critérios existentes que analisam os dois efeitos por separado é deíinido um novo critério para a resistência à tração, incorporando termos que permitem interpretar o acoplamento dos dois efeitos, obtendo um melhor resultado que reduz a soma de quadrados dos resíduos em 20 % . As conclusões da tese proporcionam maior informação teórica e experimental dos efeitos de tamanho e de velocidade de deformação nas propriedades mecânicas dos materiais que podem contribuir para adotar decisões na consideração destes efeitos nas estruturas.
Resumo:
Este trabalho visa realizar o estudo do comportamento dinâmico de um eixo rotor flexível, modelado segundo a teoria de Euler-Bernoulli e caracterizar as respostas periódicas de sistemas LTI (sistemas lineares invariantes no tempo) e sistemas fracamente não lineares de ordem arbitrária. Para tanto, é utilizada a base dinâmica gerada pela resposta impulso ou solução fundamental. O comportamento dinâmico de um eixo rotor flexível foi discutido em termos da função de Green espacial e calculada de maneira não-modal. Foi realizado um estudo do problema de autovalor para o caso de um um eixo rotor biapoiado. As freqüências são obtidas e os modos escritos em termos da base dinâmica e da velocidade de rotação. As respostas periódicas de sistemas LTI, utilizadas nas aproximações com sistemas fracamente não lineares, são obtidas, independentemente da ordem do sistema, como um operador integral onde o núcleo é a função de Green T-periódica. Esta função é caracterizada em termos das propriedades de continuidade, periodicidade e salto da função de Green T-periódica, e da base dinâmica Simulações foram realizadas para sistemas concentrados, matriciais e escalares, com o objetivo de mostrar a validade da metodologia desenvolvida com as propriedades da função de Green T-periódica. Foi abordado um modelo não-linear para uma centrífuga utilizada na indústria textil [Starzinski, 1977].
Resumo:
Este trabalho é devotado à avaliação do risco de tráfego em concessões de infra-estruturas rodoviárias. Apresenta as principais causas de discrepâncias entre previsões e a realidade do tráfego em concessões de infra-estruturas rodoviárias, abordando as conseqüências dessas diferenças e os meios propostos e/ou utilizados para a reduzir os riscos proporcionados aos concessionários pelas incertezas inerentes ao tráfego. Dentre os principais meios encontrados para minimizar os efeitos do risco de tráfego aos concessionários encontra-se a utilização de mecanismos de concessão baseado em contratos com prazo variável. Dois mecanismos têm sido desenvolvidos com este objetivo e foram avaliados neste trabalho: LPVR, proposto por Engel, Fischer e Galetovic e implantado no Chile em meados da década de 1990; e LPVNR, proposto por Nombela e De Rus a partir do final da mesma década. A avaliação dos mecanismos foi realizada com um método quantitativo de análise de riscos, utilizando simulação Monte Carlo. Para a realização da avaliação, foi desenvolvido um modelo financeiro que propiciasse análises de projetos com duração não definida ex-ante. 81 simulações foram realizadas, sendo 27 para cada um dos três tipos de concessão de rodovias testados: BOT, ROT e concessões para a operação e manutenção (O&M). As variáveis utilizadas nos testes foram: as taxas de desconto utilizadas nos projetos; os horizontes de tempo das concessões (duração esperada); e a extensão máxima que a duração pode ter, além da duração esperada.
Resumo:
Esta dissertação faz uma análise prévia da predicação complexa no modelo da Gramática Tradicional; aponta, em seguida, o enfoque das estruturas predicativas complexas à luz da Gramática Gerativa modelo de Princípios & Parâmetros (Chomsky, 1981, 1986). Ressalta que as estruturas sintáticas são projetadas a partir do léxico e correspondem a várias construções de predicação complexa. Mostra que os predicados complexos formados por APs e DPs predicativos apresentam características sintáticas e semânticas diferentes. Focaliza que essas construções superficialmente semelhantes são, em essência, diferentes, porque cada uma delas possui um processo próprio de estruturação interna, do qual decorre um sentido específico. Aponta, essencialmente, dois tipos de estruturas complexas: predicados secundários e miniorações complementos. Os predicados secundários se dividem, ainda, em predicados secundários orientados para o sujeito de [DP IP], predicados secundários orientados para o objeto de [DP VP] e predicados resultativos de [DP VP]. Os predicados secundários de [DP IP] e de [DP VP] e os predicados resultativos de [DP VP] constituem as Small Clauses adjuntas de predicados secundários. Apresenta que é possível encontrar evidências que as estruturas predicativas complexas do PB estão amalgamadas na concepção de Small Clauses nominais. Postula que as estruturas predicativas complexas do PB e as estruturas de Small Clauses nominais são em essência semelhantes. Tais estruturas possuem um mesmo processo de estruturação interna, que são analisadas conforme as configurações das representações sintáticas de cada sentença.
Resumo:
Os materiais compósitos reforçados por fibras apresentam vantagens quando comparados aos materiais de construção mais tradicionais como concreto e aço. Por outro lado, devido ao fato destes materiais serem relativamente recentes no mercado, questões a respeito de sua durabilidade são ainda objeto de discussão e faz-se necessária intensa pesquisa sobre o envelhecimento dos compósitos. Como conseqüência, recentemente têm surgido inúmeros trabalhos à respeito da degradação dos compósitos considerando efeitos como temperatura, oxidação, radiação UV, condições de carregamento, etc. A maioria destas pesquisas, no entanto, são realizadas a nível de material e não são diretamente aplicáveis à situações de projeto. Desta forma, existe grande demanda por novos estudos e dados compatíveis com aplicações estruturais. Neste trabalho apresenta-se um modelo analítico-numérico adequado para, interpretação e aplicação destes dados experimentais em análise e projeto de estrutural. A formulação proposta inclui relações constitutivas elásticas anisotrópicas com envelhecimento, relações constitutivas viscoelásticas anisotrópicas com envelhecimento em termos de variáveis de estado, análise de falhas com critério de degradação ajustado à idade do material e considera-se grandes deslocamentos e pequenas deformações. As diferenças essenciais entre os processos de envelhecimento em endurecimento e amolecimento são descritos juntamente com as relações constitutivas para cada caso. Estas equações são deduzidas na forma adequada para análise numérica via método dos elementos finitos usando uma solução incremental-iterativa com consideração de efeitos pos-críticos. Vários exemplos são apresentados, incluindo análises elásticas, viscoelásticas e de falha com envelhecimento.
Resumo:
O trabalho tem por objetivo identificar as principais fontes de custos de transação em estruturas de governança híbridas no sistema agroalimentar e a forma como as organizações reagem a este fenômeno no processo de formação e gestão da cadeia de suprimentos. A pesquisa tem por base teórica a Econo mia dos Custos de Transação e as abordagens que enfatizam a Gestão da Cadeia de Suprimentos começa com a revisão de conceitos e abordagens utilizadas no estudo de empresas no setor agroindustrial. A partir da revisão de literatura foi elaborado um esquema de pesquisa para a verificação das fontes de custos de transação e a forma como as organizações tratam o fenômeno ao organizar e coordenar sua cadeia de suprimentos. Foram analisadas quatro empresas do setor agroalimentar no Estado: Indústria Zari Ltda. (arroz); Frigorífico Silva S.A. (carne bovina); Cooperativa Tritícola Regional Santo Ângelo Ltda. (trigo); e Elege Alimentos S.A. (leite). Os resultados permitiram identificar as principais fontes de custos de transação incidentes nos arranjos estudados: padrão de concorrência estabelecido no mercado; políticas específicas de pagamento das matérias-primas implementadas pelas empresas focais; visão voltada para o curto prazo, descapitalização e baixa propensão à adoção de inovações tecnológicas por parte dos produtores rurais e; ambiente institucional desorganizado. Por outro lado, coerentemente com o indicado pela teoria, as principais fontes de custos de transação se relacionam com o oportunismo e com os principais atributos das transações: especificidade de ativo, freqüência e incerteza. A pesquisa indicou que além dos principais atributos das transações, a natureza do processo de coordenação implementado depende de outros três elementos: padrão de concorrência estabelecido no mercado, posicionamento frente ao risco associado à adoção de inovações tecnológicas por parte dos produtores rurais e a existência de um elo de ligação intermediário entre o setor produtivo e o industrial. Os resultados indicaram haver diferenças na natureza da coordenação estabelecida pela empresa focal na medida em que em três dos casos estudados houve simplesmente a coordenação das transações enquanto na Elege Alimentos ocorreu uma efetiva governança das transações. Identificou-se que a estrutura da coordenação implementada é composta por três elementos: ações de coordenação, mecanismos de coordenação e estrutura de governança das transações. O estudo dos casos demonstrou ser pertinente a tese da pesquisa na medida em que a estrutura de coordenação implementada decorreu da busca por redução dos custos de transação.
Resumo:
O projeto de sistemas intrachip (SoCs) é uma atividade de alto grau de complexidade, dados a dimensão de SoCs, na ordem do bilhão de transistores, os requisitos de tempo de desenvolvimento e de consumo de energia, entre outros fatores. A forma de dominar a complexidade de projeto de SoCs inclui dividir a funcionalidade do sistema em módulos de menor complexidade, denominados de núcleos de propriedade intelectual (núcleos IP), interligados por uma infra-estrutura de comunicação. Enquanto núcleos IP podem ser reusados de outros projetos ou adquiridos de terceiros, a infra-estrutura de comunicação deve sempre ser desenvolvida de forma personalizada para cada SoC. O presente trabalho volta-se para o projeto de infraestruturas de comunicação eficientes. Questões importantes neste contexto são a eficiência da comunicação, refletida e.g. em medidas de vazão e latência, a redução de área de silício para implementar a comunicação, e a redução da energia consumida na comunicação. Estas questões dependem da escolha da infra-estrutura de comunicação. Barramentos são as infra-estruturas mais usadas nas comunicações intrachip, mas têm sido consideradas como pouco adequadas para servir a necessidade de comunicação de SoCs futuros. Redes intrachip vêm emergindo como um possível melhor candidato. Nesta infra-estrutura de comunicação, um problema a ser resolvido é o posicionamento relativo de núcleos IP dentro da rede, visando otimizar desempenho e reduzir o consumo de energia, no que se denomina aqui problema de mapeamento. Dada a complexidade deste problema, considera-se fundamental dispor de modelos para capturar as características da infra-estrutura de comunicação, bem como da aplicação que a emprega A principal contribuição deste trabalho é propor e avaliar um conjunto de modelos de computação voltados para a solução do problema de mapeamento de núcleos de propriedade intelectual sobre uma infra-estrutura de comunicação. Três modelos são propostos (CDM, CDCM e ECWM) e comparados, entre si e com três outros disponíveis na literatura (CWM, CTM e ACPM). Embora os modelos sejam genéricos, os estudos de caso restringem-se aqui a infra-estruturas de comunicação do tipo rede intrachip. Dada a diversidade de modelos de mapeamento, propõe-se uma segunda contribuição, o metamodelo Quantidade, Ordem, Dependência (QOD), que relaciona modelos de mapeamento usando os critérios expressos na denominação QOD. Considerando o alto grau de abstração dos modelos empregados, julga-se necessário prover uma conexão com níveis inferiores da hierarquia de projeto. Neste sentido, uma terceira contribuição original do presente trabalho é a proposta de modelos de consumo de energia e tempo de comunicação para redes intrachip. Visando demonstrar a validade de todos os modelos propostos, foram desenvolvidos métodos de uso destes na solução do problema de mapeamento, o que constitui uma quarta contribuição. Estes métodos incluem algoritmos de mapeamento, estimativas de tempo de execução, consumo de energia e caminhos críticos em infra-estruturas de comunicação. Como quinta contribuição, propõe-se o framework CAFES, que integra os métodos desenvolvidos e os modelos de mapeamento em algoritmos computacionais. Uma última contribuição do presente trabalho é um método habilitando a estimativa de consumo de energia para infra-estruturas de comunicação e sua implementação como uma ferramenta computacional.