958 resultados para Minimização de funcionais
Resumo:
A reciclagem com espuma de asfalto realizada na Rodovia BR-290/RS no ano de 2001, entre os km 97 e km 112, pista sentido Porto Alegre, também chamada Pista Sul, foi objeto de estudo nesta dissertação. Este estudo apresenta todas as etapas da reciclagem, desde a elaboração do projeto, as suas considerações, tais como volume de tráfego, clima da região, características funcionais e estruturais do pavimento, execução da camada reciclada, mencionando método de execução e controles adotados e por fim e como foco principal a análise do comportamento da mistura reciclada, compilando dados à época da execução, seis meses e um ano após a execução. Foram aproveitados dois levantamentos deflectométricos um realizado com o FWD(Falling Weight Deflectometer) no mês de dezembro de 2001 e outro realizado no mês de junho de 2002 com a viga eletrônica, também chamada deflectógrafo digital. Através destes levantamentos estimavam-se por retroanálise das bacias de deflexão, utilizando o programa computacional LAYMOD4, os módulos de cada camada do pavimento. Os resultados da reciclagem são satisfatórios. Analisando a camada reciclada isoladamente, comprovam-se várias citações de pesquisadores sobre o tema, tais como: a melhoria das propriedades mecânicas da reciclagem após tempo de cura e a dependência da mistura ao estado de tensões para seu comportamento elástico. Uma avaliação de desempenho foi desenvolvida, com o auxílio do programa PAVESYS9, revelando que o pavimento apresentou boa performance, comprovando mais uma vez, a melhoria no comportamento da camada reciclada com passado tempo de cura, aumentando o módulo de resiliencia e contribuindo menos para o afundamento de trilha de roda.
Resumo:
Este trabalho é uma contribuição para o conhecimento de metodologias de projeto de estruturas de material composto, aplicando métodos de otimização estrutural a cascas laminadas e apresentando uma estratégia em dois níveis. No primeiro nível é realizada a minimização da flexibilidade da estrutura, tendo como variável de projeto a orientação de cada lâmina da estrutura. Utiliza-se Programação Linear Seqüencial (SLP) e direção de tensão principal para otimização da orientação. No segundo nível minimiza-se o volume de cada lâmina, usando a flexibilidade total da estrutura como restrição e a densidade relativa como variável de projeto, também através de SLP. Para evitar aparecimento de áreas com densidades intermediárias, utiliza-se um Método de Continuação, dividindo o nível de otimização topológica em duas ou mais etapas. As formulações desenvolvidas permitem a solução de problemas com múltiplos casos de carregamento. Para a solução da equação de equilíbrio de casca laminada, utiliza-se um elemento finito de casca degenerado de oito nós com integração explícita na direção da espessura. A implementação desse elemento é feita de modo a facilitar a obtenção das derivadas da matriz de rigidez, necessárias na linearização das funções objetivo e restrições. Evita-se assim o uso de derivadas numéricas. Resultados para vários tipos de estrutura são apresentados, incluindo comparações entre diferentes carregamentos, condições de contorno, número de lâminas, espessuras, etc. As soluções obtidas, formas de análise e possíveis aplicações são discutidas.
Resumo:
Este trabalho tem como objetivo geral implantar um programa de produção mais limpa e prevenção à poluição na disciplina de análise química do curso técnico de química de escola de nível médio. O foco do estudo foi análise química quantitativa por métodos clássicos de volumetria e gravimetria, desenvolvido com 3 turmas de alunos. Para isto, a literatura foi revisada, buscando-se os conceitos de Produção mais Limpa (PML), good housekeeping, Prevenção à Poluição (P2), Planos Curriculares Nacionais (PCNs), Constituição Federal e Estadual e implicações de assuntos ambientais e de segurança no ensino da química. A seguir efetuou-se um plano de trabalho e realizou-se a implementa-ção de medidas. Foram estabelecidas como medidas a minimização de reagentes, insumos e resíduos, a reutilização e reciclagem dos mesmos e a conscientização dos alunos sobre sua responsabilidade ambiental em 2 turmas de alunos, mantendo-se a outra como turma controle. Para avaliação de resultados foram usados indicadores quantitativos e qualitativos como quantidades de reagentes, insumos (água potável, detergente e papel toalha) e resí-duos, análise estatística dos resultados analíticos através teste Q, teste F, teste de t student e coeficiente de variação, análise de custos e postura dos estudantes frente a assuntos ambi-entais medidos através de suas atitudes. Os resultados mostraram que houve redução de 50% de reagentes, 55% de insumos, 50% de compostos químicos nos resíduos destinados para a estação de tratamento de efluentes em um volume 31% menor, superando as expec-tativas. Não houve diferença significativa nos resultados analíticos encontrados. A postura dos estudantes mostrou o nível de conscientização esperado. Verificou-se que, com as de-vidas adaptações, é possível aplicar um programa de produção mais limpa e prevenção à poluição em análise química e também em outras disciplinas.
Resumo:
A literatura tem mostrado, por intermédio de estudos com animais e seres humanos, que o uso reduzido da musculatura (como por exemplo, a imobilização de um segmento) produz uma série de alterações estruturais e funcionais no músculo esquelético. As principais alterações observadas no músculo após a redução do uso estão relacionadas com alterações nas propriedades bioquímicas, na composição de fibras musculares, atrofia muscular, redução na capacidade de produção de força, e redução na capacidade de ativação. Apesar de a maior parte dos estudos sobre o assunto ter sido realizada em modelos animais (os quais possibilitam o estudo invasivo dos mecanismos de adaptação), a incidência de lesões articulares em seres humanos tem motivado os pesquisadores a buscar métodos alternativos e nãoinvasivos para o diagnóstico e acompanhamento das lesões articulares. Tendo em vista que a mecanomiografia (MMG) é uma técnica não-invasiva que permite o estudo do comportamento mecânico e fisiológico do músculo, acredita-se que esta técnica, associada com a avaliação da capacidade de produção de força e com a eletromiografia (EMG), possa ser um método útil no diagnóstico das alterações produzidas por essas lesões e no acompanhamento de programas de reabilitação. O objetivo desse estudo foi avaliar as adaptações musculares após um período de imobilização de duas semanas. Três estudos foram desenvolvidos, sendo os dois primeiros com seres humanos e o terceiro em um modelo animal. O primeiro estudo avaliou as respostas eletromiográficas, mecanomiográficas e de torque dos músculos flexores plantares e dos flexores dorsais do tornozelo durante esforço voluntário. Foram avaliados 23 indivíduos que tiveram seus tornozelos imobilizados em função de um entorse de grau II, e 32 indivíduos saudáveis, que fizeram parte do grupo controle. O segundo estudo, por sua vez, investigou as alterações no comportamento mecânico dos mesmos grupos musculares do estudo 1, ao longo de um protocolo de contrações produzidas via estimulação elétrica, utilizando-se várias freqüências de estimulação (de 5 a 60 Hz). Nos dois estudos, os valores de torque dos flexores plantares e dos flexores dorsais no grupo imobilizado foram significativamente inferiores aos do grupo controle. Essa redução foi mais evidente nos flexores plantares do que nos flexores dorsais. Os valores root mean square (RMS) do sinal EMG, durante a CVM (estudo 1), foram significativamente menores nos músculos gastrocnêmio medial (GM), sóleo (SOL) e tibial anterior (TA) do grupo que foi imobilizado quando comparado ao grupo controle. A mediana da freqüência (MDF) do sinal EMG, durante a CVM, no estudo 1, não apresentou diferença significativa entre os dois grupos da amostra, em nenhum dos três músculos estudados (GM, SOL e TA). Os valores RMS e a MDF do sinal MMG dos músculos GM, SOL e TA não apresentaram diferenças significativas entre os dois grupos da amostra, em nenhum dos dois estudos, indicando que a técnica da MMG não foi capaz de revelar as alterações musculares produzidas por um período de imobilização. O terceiro estudo avaliou as alterações das propriedades mecânicas devido a alterações no comprimento muscular e na freqüência de estimulação nos músculos SOL de 3 gatos. As relações força-comprimento foram estabelecidas ao nível articular, muscular, das fibras musculares e dos sarcômeros. Os resultados demonstraram que as variações de comprimento da fibra diferem das variações de comprimento do músculo como um todo, principalmente nos comprimentos mais encurtados. Existe um maior encurtamento da fibra com o aumento da freqüência de estimulação nos menores comprimentos musculares, enquanto nos maiores comprimentos musculares o aumento da freqüência de estimulação tem um efeito similar sobre as fibras e o músculo como um todo. Os principais achados do presente estudo são de que as respostas da EMG e de torque são alteradas por um período de 2 semanas de imobilização, enquanto as respostas da MMG não, e que o comprimento muscular é uma importante variável que deve ser controlada a nível tanto das fibras musculares, quanto dos componentes elásticos no estudo das propriedades mecânicas do músculo esquelético.
Resumo:
Este trabalho propõe um modelo de forma reduzida livre de arbitragem para a extração de probabilidades de default a partir de spreads de Swaps de Crédito e aplica-o realizando uma análise da percepção de risco da dívida soberana brasileira confrontando dois momentos com contextos econômicos distintos. É utilizada uma modelagem paramétrica da estrutura temporal das probabilidades condicionais de default para a qual se testa duas formas funcionais distintas: Constante por Partes e Linear por Partes. Os resultados fornecem evidências que corroboram a aplicabilidade do modelo e indicam uma clara vantagem da modelagem Linear por Partes, por se ajustar melhor aos dados e possuir implicações convenientes na estrutura a termo das taxas de juros ajustadas ao risco de default.
Resumo:
Electronic applications are currently developed under the reuse-based paradigm. This design methodology presents several advantages for the reduction of the design complexity, but brings new challenges for the test of the final circuit. The access to embedded cores, the integration of several test methods, and the optimization of the several cost factors are just a few of the several problems that need to be tackled during test planning. Within this context, this thesis proposes two test planning approaches that aim at reducing the test costs of a core-based system by means of hardware reuse and integration of the test planning into the design flow. The first approach considers systems whose cores are connected directly or through a functional bus. The test planning method consists of a comprehensive model that includes the definition of a multi-mode access mechanism inside the chip and a search algorithm for the exploration of the design space. The access mechanism model considers the reuse of functional connections as well as partial test buses, cores transparency, and other bypass modes. The test schedule is defined in conjunction with the access mechanism so that good trade-offs among the costs of pins, area, and test time can be sought. Furthermore, system power constraints are also considered. This expansion of concerns makes it possible an efficient, yet fine-grained search, in the huge design space of a reuse-based environment. Experimental results clearly show the variety of trade-offs that can be explored using the proposed model, and its effectiveness on optimizing the system test plan. Networks-on-chip are likely to become the main communication platform of systemson- chip. Thus, the second approach presented in this work proposes the reuse of the on-chip network for the test of the cores embedded into the systems that use this communication platform. A power-aware test scheduling algorithm aiming at exploiting the network characteristics to minimize the system test time is presented. The reuse strategy is evaluated considering a number of system configurations, such as different positions of the cores in the network, power consumption constraints and number of interfaces with the tester. Experimental results show that the parallelization capability of the network can be exploited to reduce the system test time, whereas area and pin overhead are strongly minimized. In this manuscript, the main problems of the test of core-based systems are firstly identified and the current solutions are discussed. The problems being tackled by this thesis are then listed and the test planning approaches are detailed. Both test planning techniques are validated for the recently released ITC’02 SoC Test Benchmarks, and further compared to other test planning methods of the literature. This comparison confirms the efficiency of the proposed methods.
Resumo:
O estudo das deformações que ocorrem em estruturas de concreto armado vem despertando um interesse cada vez maior, visto que o concreto é o principal material estrutural utilizado nas construções modernas. Os objetivos dos estudos na área incluem, além da minimização de eventuais efeitos indesejados das deformações, a determinação de métodos acurados para previsão das flechas ao longo do tempo, visto que o concreto é um material viscoelasto- plástico, que sofre deformações lentas significativas. Como é de conhecimento geral, as deformações são causadas pelo carregamento imposto, incluindo o peso próprio, sendo diretamente afetadas pelas características do elemento estrutural e do meio ambiente no qual o mesmo se insere. Para estimá-las, portanto, é necessário conhecer bem o material. A questão é que, nos últimos anos, começaram a ser utilizados concretos com características muito diferentes dos concretos convencionais. Mudanças no cimento e a utilização de aditivos e adições permitiram criar concretos com reologia e propriedades bem variadas. Embora muitos estudos sobre deformações tenham sido realizados com concretos convencionais, poucos foram realizados sobre as deformações imediatas e ao longo do tempo de concretos especiais. O presente trabalho foi concebido visando obter dados sobre o comportamento, quanto às flechas, de vigas fabricadas com concretos especiais, submetidas à flexão simples. Os objetivos propostos foram identificar mudanças de comportamento e determinar a adequação dos critérios de norma para estimativa das deformações destes concretos. O programa experimental incluiu o monitoramento das flechas em vigas de concreto armado com seção transversal de 10x20 cm e 212 cm de comprimento, bi-apoiadas, submetidas a um carregamento composto de duas cargas concentradas eqüidistantes dos apoios, constante ao longo do tempo. Foram ensaiados oito protótipos, 2 de concreto com fibras de aço, 2 de concreto de alta resistência, 2 de concreto branco e 2 de concreto convencional. São apresentados os resultados experimentais obtidos para cada viga, sendo os mesmos confrontados com os resultados teóricos obtidos com o modelo prescrito na Norma NBR 6118/03. Adicionalmente, os resultados experimentais foram comparados com resultados obtidos via um modelo numérico não-linear proposto por Barbieri (2003). A análise dos resultados evidencia que as deformações de concretos especiais não podem ser estimadas utilizando os critérios atuais para concretos convencionais, sendo necessário aplicar coeficientes de correção ou implementar modelos de estimativa específicos para estes concretos. Pelos resultados obtidos, entretanto, a estimativa do módulo de elasticidade de concretos especiais pode ser feita com boa precisão empregando as fórmulas da norma.
Resumo:
Muitos aplicativos atuais, envolvendo diversos domínios de conhecimento, são estruturados como arquiteturas de software que incorporam, além dos requisitos funcionais, requisitos não funcionais, como segurança, por exemplo. Tais requisitos podem constituir um domínio próprio, e, portanto, serem comuns a várias outras arquiteturas de software. Tecnologias como Programação Orientada a Aspectos, Reflexão Computacional e Padrões de Projeto colaboram no desenvolvimento de arquiteturas que provêem a separação de requisitos não funcionais. Porém, sua experimentação e adoção no domínio da segurança computacional ainda é incipiente. O foco deste trabalho é a elaboração de um padrão de projeto voltado à segurança, utilizando como arquitetura conceitual programação orientada a aspectos, e como arquitetura de implementação, reflexão computacional. A composição destas tecnologias resulta em um middleware orientado à segurança, voltado a aplicações desenvolvidas em Java. Estuda-se as tecnologias, seus relacionamentos com a área de segurança, seguido da proposta de uma arquitetura de referência, a partir da qual é extraído um protótipo do middleware de segurança. Este, por sua vez, provê mecanismos de segurança tão transparentes quanto possível para as aplicações que suporta. Com o objetivo de realizar a implementação do middleware de segurança, também são estudadas os mecanismos de segurança da plataforma Java, porém limitado ao escopo deste trabalho. Segue-se o estudo da base conceitual das tecnologias de Reflexão Computacional, o modelo de implementação, seguido de Programação Orientada a Aspectos, o modelo conceitual, e, por fim, têm-se os Padrões de Projeto, a arquitetura de referência. Integrando as três tecnologias apresentadas, propõe-se um modelo, que estabelece a composição de um Padrão Proxy, estruturado de acordo com a arquitetura reflexiva. Este modelo de arquitetura objetiva implementar o aspecto de segurança de acesso a componentes Java, de forma não intrusiva,. Baseado no modelo, descreve-se a implementação dos diversos elementos do middleware, estruturados de forma a ilustrar os conceitos propostos. Ao final, apresenta-se resultados obtidos durante a elaboração deste trabalho, bem como críticas e sugestões de trabalhos futuros.
Resumo:
De acordo com a Lei Federal n° 9.433/97, que instituiu a Política e o Sistema Nacional de Gerenciamento dos Recursos Hídricos, o planejamento de recursos hídricos deve ter um enfoque sistêmico, de uso múltiplo das águas e descentralização das decisões, adotando a bacia hidrográfica como unidade de gestão. Dentro deste contexto, de descentralização de decisões e participação de grandes grupos no processo de tomada de decisão sobre a gestão dos recursos hídricos, os procedimentos clássicos de avaliação de alternativas para planejar o uso, controle e proteção das águas tornam-se limitados por sua impossibilidade de incluir outros critérios, além da minimização dos custos ou da maximização dos benefícios, e por não considerarem a subjetividade inerente ao processo de tomada de decisão, que corresponde ao sistema de valores dos atores envolvidos na tomada de decisões. Assim, este trabalho apresenta um Método Multicritério em Apoio à Decisão para o planejamento de recursos hídricos de bacias hidrográficas, que além de incorporar vários critérios na avaliação de alternativas, por adotar uma abordagem construtivista, propicia a participação de todos os atores envolvidos no processo de tomada de decisão. Para testar a aplicabilidade prática do método proposto foi escolhida a bacia hidrográfica do rio dos Sinos, localizada no estado do Rio Grande do Sul, sendo construído um Modelo Multicritério de Avaliação de Alternativas para o Plano da Bacia Hidrográfica do Rio dos Sinos. Os resultados do trabalho demonstraram a robustez da proposta que, ao possibilitar a geração e avaliação de alternativas para o Plano da Bacia Hidrográfica do Rio dos Sinos, a partir de diversos critérios, e levando em conta o sistema de valores dos decisores, se constituiu em um diferencial capaz de conferir maior legitimidade ao processo de tomada de decisões sobre o planejamento de recursos hídricos de bacias hidrográficas.
Resumo:
Este ensaio se propõe confrontar a abordagem neoclássica da economia como ciência positiva, com a modelo keynesiano e a visão da economia dinâmica de Kalecki, onde a economia é tratada desde a perspectiva de uma ciência moral e normativa. Para tanto analisaremos as bases teóricas de cada modelo, seus pressupostos, leis fundamentais e principais conclusões. Dado o propósito didático do texto nos preocupamos em tentar explicar os antecedentes, axiomas, leis e relações funcionais de cada modelo, dando especial ênfase às que surgem da crítica de postulados anteriores, pois admitimos que cada modelo incorpora valores, pressupostos e metodologia própria, cuja crítica é essencial para o avanço da ciência. A economia neoclássica supõe agentes racionais, informação completa e ações e resultados imediatos. Seu método de análise é a otimização com restrições. O principio ordenador, necessário e suficiente da atividade econômica, consiste no comportamento racional dos agentes. Este modelo tem sua concepção política e ética das relações econômicas, consistente com seus pressupostos, o que fica patente, por exemplo, a propósito de sua teoria da distribuição da renda. Com a introdução de conceitos como: o tempo histórico; o caracter monetário da produção; a preferência pela liquidez; o comportamento subjetivo dos agentes; o predomínio da procura sobre a oferta; as expectativas e a incerteza em relação ao futuro, etc., a macroeconomia de Keynes consegue romper o paradigma anterior, do ajuste automático dos mercados de acordo com um feedeback contínuo e estável, capaz de garantir o equilíbrio de pleno emprego. Embora a análise keynesiana tivesse permitido a abordagem precisa de questões tão importantes como: a natureza e as causas do desemprego; o papel da moeda e do crédito; a determinação dos juros; os condicionantes do investimento, etc., faltava ainda uma teoria dos preços, da distribuição e do ciclo econômico, no que o trabalho de M. Kalecki, certamente parece ter avançado. Este autor parte de um contexto cultural e ideológico que lhe permite abordar sem entraves a natureza do capitalismo. Seu enfoque micro e macroeconômico é integrado e está apoiado no pressuposto da concorrência imperfeita. No universo keynesiano os mercados podem estar em equilíbrio, mas não no de pleno emprego, já segundo Kalecki o ciclo econômico é inevitável. Em ambos os casos os mercados não são perfeitos e não tendem naturalmente para o equilíbrio, o que justifica a ação reguladora do Estado, de acordo sua opção política e um código de valores preestabelecido. É de se imaginar que cada modelo de análise esteja condicionado pelo conjunto de valores dominantes do momento, o que não invalida o caracter de ciência social da economia. Por exemplo, desde a perspectiva individualista da troca mercantil, a economia se apresenta com a metodologia de ciência pura, porém, levando em conta as relações de classe social, é uma ciência moral.
Resumo:
The objective of this study is to discuss and analyze the structure of the organizational field of recycling of aluminum cans in Rio de Janeiro state, using as reference the institutional theory. The recycling of aluminum cans field, despite its early history, has presented important modifications, with impacts in others recycle material industries. The present study aims to understand such modifications through the analysis of the organizational field. With this intention, it is used a theoretical basis to define the institutionalization concept, focusing on the differences of functional organization theory, as well to define the legitimacy concept and isomorphism. As a contribution to institutional studies, and as reference to this research, it is analyzed some organizational field studies published in Brazil, comparing them with others from Europe and America, as well as a discussion about the applicability of institutional studies. The structure and analysis presented here were elaborated through a survey, based on semi-structured interviews with representatives of organizations of the organizational field. This study is sectional with longitudinal perspective, including a qualitative analysis, in order to get information regarding the past that can contribute to explain the current structure of the organizational field. There is a perception that border actors, represented in this work by recyclers cooperatives, on the contrary of other studies, intend do change the structure of the organizational field by the mean of social pressures.
Resumo:
Neste início de década, observa-se a transformação das áreas de Computação em Grade (Grid Computing) e Computação Móvel (Mobile Computing) de uma conotação de interesse emergente para outra caracterizada por uma demanda real e qualificada de produtos, serviços e pesquisas. Esta tese tem como pressuposto a identificação de que os problemas hoje abordados isoladamente nas pesquisas relativas às computações em grade, consciente do contexto e móvel, estão presentes quando da disponibilização de uma infra-estrutura de software para o cenário da Computação Pervasiva. Neste sentido, como aspecto central da sua contribuição, propõe uma solução integrada para suporte à Computação Pervasiva, implementada na forma de um middleware que visa criar e gerenciar um ambiente pervasivo, bem como promover a execução, sob este ambiente, das aplicações que expressam a semântica siga-me. Estas aplicações são, por natureza, distribuídas, móveis e adaptativas ao contexto em que seu processamento ocorre, estando disponíveis a partir de qualquer lugar, todo o tempo. O middleware proposto, denominado EXEHDA (Execution Environment for Highly Distributed Applications), é adaptativo ao contexto e baseado em serviços, sendo chamado de ISAMpe o ambiente por este disponibilizado. O EXEHDA faz parte dos esforços de pesquisa do Projeto ISAM (Infra-Estrutura de Suporte às Aplicações Móveis Distribuídas), em andamento na UFRGS. Para atender a elevada flutuação na disponibilidade dos recursos, inerente à Computação Pervasiva, o EXEHDA é estruturado em um núcleo mínimo e em serviços carregados sob demanda. Os principais serviços fornecidos estão organizados em subsistemas que gerenciam: (a) a execução distribuída; (b) a comunicação; (c) o reconhecimento do contexto; (d) a adaptação; (e) o acesso pervasivo aos recursos e serviços; (f) a descoberta e (g) o gerenciamento de recursos No EXEHDA, as condições de contexto são pró-ativamente monitoradas e o suporte à execução deve permitir que tanto a aplicação como ele próprio utilizem essas informações na gerência da adaptação de seus aspectos funcionais e não-funcionais. O mecanismo de adaptação proposto para o EXEHDA emprega uma estratégia colaborativa entre aplicação e ambiente de execução, através da qual é facultado ao programador individualizar políticas de adaptação para reger o comportamento de cada um dos componentes que constituem o software da aplicação. Aplicações tanto do domínio da Computação em Grade, quanto da Computação Pervasiva podem ser programadas e executadas sob gerenciamento do middleware proposto.
Resumo:
o presente trabalho averigua os modelos estratégicos atuais e, sua aplicabilidade nas pequenas empresas no que tange à viabilidade financeira de projetos dirigidos a esse assunto. Procurou-se desenvolver a pesquisa com o objetivo de investigar a influência e a operacionalidade dos modelos correntes de estratégia, na liquidez das pequenas empresas, de modo a transformar os dados destas analises financeiras básicas em ferramentas estratégicas de minimização de risco. O método utilizado para o estudo foi o da exploração de literatura de planejamento estratégico e análise financeira de tomada de decisão. Aplicação da teoria foi verificada em uma amostra não generalística e préestabelecida pelo autor, através de um questionário objetivo. As perguntas constantes neste questionário contemplaram a verificação do nível dos conceitos estratégicos presentes nas empresas, suas condições atuais perante a perspectiva financeira e a disponibilidade da aplicação dos conceitos em projetos de planejamento estratégico. Os resultados revelaram a presença de vários conceitos e diretrizes teóricas; porém na averiguação da condição financeira, as empresas pesquisadas apresentaram, através de notas, estado de li qui dez enxuto e com pouca margem de folga para investimentos na área estratégica. O contraponto da pesquisa foi dado pelo modo que como as empresas estão sendo obrigadas a esta análise, por mais que haja conhecimento do assunto, estes critérios não estão sendo utilizados, fato observado na terceira seção do questionário. As conclusões demonstraram que as pequenas empresas pesquisadas oferecem condições de desenvolvimentos estratégicos na forma de adaptações. A teoria informou que isto também constitui um procedimento válido. Porém os conceitos dessas adaptações devem ser avaliados perante a perspectiva da viabilidade financeira e de composição dos custos de capital a ser aplicado. Isto estabelece, além da implantação do início da adaptação estratégica, o uso de ferramentas financeiras básicas e de critérios de análise de risco, sendo esses fatos extremamente compatíveis com o tamanho das empresas e com os preceitos estratégicos. Assim, a hipótese estipula pelo trabalho apresentou compatibilidade com a pesquisa visto que, a teoria corrente demonstrou não ser viável para os gestores, ou ainda, ser aplicada para os casos em estudo. O texto e a pesquisa demonstram isto de modo que, para o caso das pequenas empresas a solução é a adaptação estratégica com estudo de viabilidade e, não a aceitação completa dos modelos propostos normalmente.
Resumo:
O objetivo deste trabalho é a definição de um conjunto de roteiros para o ensino de arquitetura de computadores com enfoque em arquiteturas superescalares. O procedimento é baseado em simulação e verificação da influência dos parâmetros arquiteturais dos processadores, em termos funcionais e de desempenho. É dada ênfase a conceitos como memória cache, predição de desvio, execução fora de ordem, unidades funcionais e etc. Através do estudo e avaliação dos parâmetros que constituem estes conceitos, procurava-se através dos roteiros identificar as configurações com melhor desempenho. Para a implementação destes roteiros é dotado o conjunto de ferramentas de simulação SimpleScalar. Este conjunto, além de estar disponibilizado em código aberto na página oficial das ferramentas, traz como vantagem a possibilidade de alteração do código para fins de pesquisa. Este trabalho e os roteiros que o compõem têm como objetivos auxiliar professores e estimular os alunos através de simulações, como forma didática de testar conceitos vistos em sala de aula. Os roteiros são apresentados com os respectivos resultados de simulação e incrementados com comentários e sugestões de um conjunto de perguntas e respostas para que o trabalho possa ter continuidade necessária, partindo da sala de aula para a simulação, busca de respostas e culminando com um relatório final a ser avaliado.
Resumo:
O objetivo deste estudo é identificar a importância da atuação da unidade de auditoria interna no processo de prevenção e combate à lavagem de dinheiro nas instituições financeiras brasileiras. Adotou-se como referencial teórico a legislação sobre o crime de lavagem de dinheiro e a literatura a ela associada, bem como o conceito e a finalidade da auditoria interna. Como método foi utilizada a pesquisa bibliográfica, telemática e documental, com característica descritiva. Conclui, ao final, que a avaliação do processo de prevenção e combate à lavagem de dinheiro, pela auditoria interna, contribui positivamente para a minimização dos riscos legais e de imagem associados ao não cumprimento das obrigações impostas às instituições financeiras pela Lei 9.613/98. Conclui, ainda, que a auditoria interna deve realizar trabalhos estruturados, que permitam apresentar conclusões e sugestões à Alta Administração sobre os riscos associados ao não cumprimento das obrigações legais relativas à prevenção e combate à lavagem de dinheiro, que, se materializados podem ameaçar o alcance dos objetivos da instituição.