950 resultados para Auxílio-moradia
Resumo:
Esta tese de doutorado apresenta o MEPSOM - Método de Ensino de Programação Sônica de Computadores para Músicos. O MEPSOM consiste em um sistema de computação que disponibiliza um conjunto de atividades para programação de software musical composto de exemplos e exercícios. O método foi idealizado para ser uma ferramenta de auxílio ao professor em cursos de Computação Musical, disponibilizando recursos didáticos para o ensino de programação nas áreas de composição e educação musical. O MEPSOM foi implementado sob a forma de programas de computador e utilizado em cursos de Computação Musical na UFRGS. Nesta Tese de Doutorado apresentamos o projeto e a organização do MESPCM, a implementação do método, relatos de sua aplicação e os resultados obtidos. Também expomos a utilização do método em laboratório, através de estudo de caso, e os resultados da sua avaliação por estudantes que participaram de pesquisas de levantamento. Por fim, a partir da análise dos dados obtidos, sugerimos um conjunto de aspectos considerados relevantes para futuras aplicações do MEPSOM.
Resumo:
A competitividade cada vez mais acirrada e globalizada tem forçado as empresas a desenvolver produtos com maior qualidade em um menor tempo com custos cada vez mais baixos. Para isto, passaram a utilizar tecnologias de ponta na manufatura de seus produtos, que envolvem desde a concepção do produto até sua efetiva produção. Uma das etapas mais importantes na concepção de um produto manufaturado, a partir de um projeto, é o planejamento do processo produtivo. A essência dessa atividade é disponibilizar uma gama de informações bem detalhadas e organizadas para o chão de fábrica que pode incluir a seleção da máquinaferramenta, determinação dos parâmetros de corte, geração do programa NC e as instruções de trabalho. Na maioria das empresas o planejamento do processo é feito por processistas experientes que utilizam técnicas manuais, onde despedem tempo considerável fazendo cálculos, recuperando informações, escrevendo, digitando e detalhando o plano, e nenhuma dessas tarefas agrega valor diretamente ao produto. Assim somente uma pequena parcela do tempo total é utilizado na concepção e análise do produto. A introdução dos computadores na confecção do plano de processo torna o planejamento mais eficiente podendo dispor de mais alternativas além daquelas exploradas manualmente, e ainda há vantagens adicionais, como a realização de várias comparações de planos semelhantes para selecionar o melhor para cada caso, reduzindo o tempo de planejamento, exigindo menor experiência técnica dos processistas, resultando em aumento da produtividade com planos otimizados. O sistema desenvolvido dentro da filosofia de planejamento de processo variante-interativo, um método que se utiliza da tecnologia de grupo para formar famílias de peças, onde para cada família é desenvolvido um plano padrão, no qual torna-se a base de dados para novas peças, exigindo alterações apenas nos detalhes que não forem similares. Quando não existir um plano semelhante para nova peça este é gerado de forma interativa onde o processista tem o auxílio do computador na definição da folha de processo, ao contrário de um sistema generativo que utiliza uma programação mais complexa e cria automaticamente planos de processo distintos para a nova peça. Os planos de processo gerados contem os processos de usinagem, as máquinas para realizar os mesmos, ferramentas e portaferramentas, sistemas de fixação, os parâmetros de corte e o sequenciamento das operações. O sistema foi projetado em Visual Basic, uma linguagem que disponibiliza uma interface gráfica amigável com o usuário. O conjunto das informações estritamente necessárias para o desenvolvimento do programa é armazenado em um sistema de gerenciamento de banco de dados relacional (ACCESS), sistema esse escolhido por ter a vantagem de permitir manipular mais de um aplicativo ao mesmo tempo, estabelecendo relações entre eles, buscando eliminar a duplicidade de informações, impondo integridade referencial, reduzindo o espaço de armazenamento e facilitando a atualização dos dados.
Resumo:
O presente trabalho trata da Administração Baseada em Valor (VBM do inglês Value Based Management), que é uma ferramenta de auxílio à administração de empresas, que busca a identificação de value drivers, que são controles internos a serem monitorados, que devem abranger os principais pontos vistos pelo mercado como criadores de valor, pois o objetivo central da VBM é a majoração de valor para o acionista. A VBM também se utiliza do fluxo de caixa descontado (DCF do inglês Discounted Cash Flow). O objetivo central desta dissertação é fazer uma análise comparativa da estrutura interna de funcionamento e acompanhamento e dos controles de uma organização do segmento de telecomunicações com a filosofia da VBM, identificando o distanciamento de uma para com a outra. A empresa pesquisada é a Dígitro Tecnologia Ltda., de Florianópolis, que não utiliza a VBM. É uma pesquisa quantitativa e foi desenvolvida através do método de estudo de caso. Sua investigação foi dividida em três pontos principais: (1) a identificação, na empresa, da estrutura básica necessária para a implantação da Administração Baseada em Valor, (2) os itens necessários para se montar um DCF e (3) os controles internos possuídos pela organização, que possam servir como value drivers ou suas intenções de implantar controles. O estudo de caso foi único e exploratório, contando com a aplicação de entrevistas semi-estruturadas, observação direta e coleta de documentos. Conclui-se que a organização pesquisada está distante da filosofia da VBM, porém, com intenção de utilizar-se de inúmeros conceitos da Administração Baseada em Valor para auxiliar sua gestão.
Resumo:
O desenvolvimento de protocolos distribuídos é uma tarefa complexa. Em sistemas tolerantes a falhas, a elaboração de mecanismos para detectar e mascarar defeitos representam grande parte do esforço de desenvolvimento. A técnica de simulação pode auxiliar significativamente nessa tarefa. Entretanto, existe uma carência de ferramentas de simulação para investigação de protocolos distribuídos em cenários com defeitos, particularmente com suporte a experimentos em configurações “típicas” da Internet. O objetivo deste trabalho é investigar o uso do simulador de redes NS (Network Simulator) como ambiente para simulação de sistemas distribuídos, particularmente em cenários sujeitos à ocorrência de defeitos. O NS é um simulador de redes multi-protocolos, que tem código aberto e pode ser estendido. Embora seja uma ferramenta destinada ao estudo de redes de computadores, o ajuste adequado de parâmetros e exploração de características permitiu utilizá-lo para simular defeitos em um sistema distribuído. Para isso, desenvolveu-se dois modelos de sistemas distribuídos que podem ser implementados no NS, dependendo do protocolo de transporte utilizado: um baseado em TCP e o outro baseado em UDP. Também, foram estudadas formas de modelar defeitos através do simulador. Para a simulação de defeito de colapso em um nodo, foi proposta a implementação de um método na classe de cada aplicação na qual se deseja simular defeitos. Para ilustrar como os modelos de sistemas distribuídos e de defeitos propostos podem ser utilizados, foram implementados diversos algoritmos distribuídos em sistemas síncronos e assíncronos. Algoritmos de eleição e o protocolo Primário-Backup são exemplos dessas implementações. A partir desses algoritmos, principalmente do Primário-Backup, no qual a simulação de defeitos foi realizada, foi possível constatar que o NS pode ser uma ferramenta de grande auxílio no desenvolvimento de novas técnicas de Tolerância a Falhas. Portanto, o NS pode ser estendido possibilitando que, com a utilização dos modelos apresentados nesse trabalho, simule-se defeitos em um sistema distribuído.
Resumo:
Este trabalho consiste em um estudo para avaliar e quantificar o pico do impacto e força gerada no segmento superior em atletas da arte marcial de origem japonesa Karate Do, oriundos da seleção Gaúcha adulta e juvenil da modalidade do ano de 2001, durante a execução da técnica de gyaku tsuki sobre makiwara. Os valores dos picos de aceleração foram obtidos na região do punho e escápula utilizando-se acelerômetros piezoelétricos uniaxiais fixos nestas regiões, e os valores da força gerada durante o choque, obtidos através da instrumentação do makiwara com extensômetros. As medições no segmento superior foram realizadas no eixo longitudinal do mesmo de acordo com as recomendações das normas ISO 2631 (1974 e 1997) e ISO 5349 (1986). Um dos acelerômetros foi fixado na porção distal do rádio e o outro acima da espinha da escápula. A disposição dos acelerômetros têm por objetivo captar o nível de vibração que efetivamente chega no segmento superior pela mão e quanto da energia vibratória é absorvida pelo mesmo. Os dois sensores foram colocados superficialmente sobre a pele, diretamente acima das estruturas anatômicas acima descritas, fixos com fita adesiva. A aquisição dos dados foi realizada com uma placa conversora analógica digital, e programa de aquisição de dados em três canais desenvolvido na plataforma de programação visual HPVee. Os ensaios foram realizados simulando a maneira clássica de execução da técnica de gyaku tsuki em makiwara. O trabalho apresenta ainda um estudo sistemático de lesões associadas ao uso do makiwara e estatísticas referentes a praticantes avançados do estado do Rio Grande do Sul. Também apresenta algumas considerações anatômicas e Mecânicas da técnica estudada, para apresentar-se como material de auxílio à estudiosos da Biomecânica dos esportes e Cinesiologia, instrutores e treinadores em geral para otimizar e aperfeiçoar, ou mesmo aumentar a compreensão da prática esportiva do Karate Do. Também é apresentado um modelo biomecânico de quatro graus de liberdade usado para análise de domínio de freqüência e possível simulação futura.
Resumo:
O presente trabalho apresenta a investigação realizada sobre a utilização de indicadores de desempenho para tomada de decisões na implementação de projetos de sistemas. Para a realização desta pesquisa, utilizou-se como revisão da literatura a metodologia do Project Management Institute, que aborda o gerenciamento dos projetos de sistemas e o conceito do Balanced Scorecard, que trata da utilização de indicadores na implementação das estratégias. Utilizou-se o BSC para se enfatizar o relacionamento entre os resultados dos projetos e as estratégias. Com auxílio de uma metodologia de natureza qualitativa, buscou-se, através de entrevistas semiestruturadas, identificar as experiências dos entrevistados (quinze executivos) acerca da utilização de indicadores de desempenho. Estas contribuições foram estruturadas em quatro etapas: dificuldades encontradas na implementação de sistemas de indicadores, aspectos a serem monitorados nos projetos, indicadores nas perspectivas e lições aprendidas. A partir da revisão da literatura e resultado da análise das entrevistas, propõe-se no capítulo 5 um roteiro para identificação de projetos prioritários e identificação dos indicadores-chave para gestão dos projetos.
Resumo:
Neste trabalho se propõe um avanço para a Técnica Transformada Integral Generalizada, GITT. O problema transformado, usualmente resolvido por subrotinas numéricas, é aqui abordado analiticamente fazendo-se uso da Transformada de Laplace. Para exemplificar o uso associado destas duas transformadas integrais, resolvem-se dois problemas. Um de concentração de poluentes na atmosfera e outro de convecção forçada com escoamento laminar, entre placas planas paralelas, com desenvolvimento simultâneo dos perfis térmico e hidrodinâmico. O primeiro é difusivo, transiente e com coeficientes variáveis. Sua solução é obtida de forma totalmente analítica. Além de mostrar o uso da técnica, este exemplo apesar de ter coeficientes variáveis, é resolvido com o auxílio de um problema de autovalores associado com coeficientes constantes. No segundo, obtém-se a solução da Equação da Energia analiticamente. Já a Equação da Conservação do Momentum é linearizada e resolvida de forma iterativa. A solução de cada iteração é obtida analiticamente.
Resumo:
Para avaliar, in vitro, o desempenho diagnóstico de imagens radiografadas convencionais digitalizadas através da obtenção de medidas de cmprimento radicular, da comparação de pares de imagens e da subtração digital em dentes submetidos a reabsorções radiculares externas apicais e à movimentação ortodôntica simulada, 28 incisivos centrais superiores, em cujas coroas foi colado um bracket, tiveram seu comprometimento radicular medido através de paquímetro digital e foram radiografados associados e um simulador de tecidos ósseo e moles, como auxílio de posicionadores individualizados, pela técnica periapical da bissetriz. Os dentes foram novamente medidos e radiografados após desgastes apicais seqüênciais de aproximadamente 0,5 m (R1) e 1 nn(R2), variando sua inclinação no sentido vestibulo-palatno (0º, 5º, 10º e 15º). As radiografias foram digitalizadas e submetidas incialmente à análise quantitativa do comprimento dentário, através de régua eletrônica. Após, pares de imagens do mesmo dente (inicial x inclinação) foram exibidos, em monitor, a um observador, que as avaliou quanto à presença ou à ausência de imagem compatível com reabsorção apical, atribuindo-lhes escores de 1 a 5. As imagens resultantes da subtração dos mesmos pares de radiografias foram avaliados pelos mesmos critérios. As medidas lineares de comprimento radicular foram reprodutíveis (r = 0,93), diferindo significativamente entre as duas etapas de reabsorção (R1: 0,59 0,19 mm; R2:1,14 0,37 mm) porém não diferindo significativamente em função da inclinação do dente. A avaliação de pares de imagens apresentou correlaçao média (r = 0,46) quando repetida em 20% da amostra, não apresentando diferenças estatisticamente significativas nos escores atribuídos às imagens de acordo coma inclinação dos dentes (Teste não paramétrico de Friedman, R1:p = 0,704 e R2:p = 0,508). A avaliação por subtração digital de imagens apresentou correlação média (r = 0,485) quando repetida em 20% da amostra, não diferiu significativamente (Teste não paramétrico de Friedman), em ambas as etapas de reabsorção, apenas para as inclinações 0º e 5º. Tais resultados permitem concluir que os rescursos testados tiveram desempenhos diferentes de Reabsorções Radiculares Externas Apicais (RREA) simuladas, pois os valores médios das medidas de comprimento do dente, para cada nível de reabsorção, não variaram, significativamente em função da inclinação do mesmo, permitindo a identificação e quantificação da RREA, na comparação de pares de imagens exibidas lado a lado na telado computador, os escores atribuídos também não variam signficativamente para as diferentes inclinaçãoes, permitindo a identificação da RREA; e, na avaliação qulitativa de imagens de subtração, os escores atribuídos permitiram a identificação da RREA apenas quando os dentes foram inclinados em até 5º.
Resumo:
Esta pesquisa propõe um modelo de avaliação dos custos dos acidentes do trabalho e das doenças relacionadas com o trabalho sob uma nova ótica, fundamentado no método de custeio por atividades (ABC – Activity-Based Costing). Basicamente, no modelo proposto, soma-se, às duas fases do método ABC (rastreamento dos recursos às atividades e das atividades aos objetos de custo parciais), uma terceira fase de alocação dos objetos de custo parciais ao acidente do trabalho ou à doença relacionada com o trabalho. Os elementos constituintes e os componentes de custo incluídos no modelo proposto foram baseados na revisão bibliográfica sobre os custos dos acidentes e das doenças do trabalho, contabilidade e sistemas de custos. O modelo foi validado por meio de um estudo de caso na indústria da construção, tendo-se considerado sua aplicabilidade, confiabilidade dos resultados e auxílio no processo de tomada de decisões. Os resultados obtidos no estudo de caso mostraram que o modelo proposto possibilitou a visão de custos inicialmente não captados pelo modelo em uso na empresa e que pode atuar como ferramenta de apoio ao processo de tomada de decisões em segurança e saúde no trabalho porque estabelece novos parâmetros para tal avaliação: alocação dos recursos e atividades destinadas ao atendimento do acidente/doença em centros de atividades e objetos de custo parciais. Foram, também, identificadas oportunidades de aperfeiçoamento do modelo, pois o estudo de caso evidenciou que a aplicação do modelo não foi tão fácil como se esperava e, portanto, evidenciando a necessidade da introdução de uma primeira etapa de lançamento do modelo para melhor aplicação em empresas.
Resumo:
O presente trabalho identificou as transformações nas qualificações dos trabalhadores ligados à produção na agroindústria de frigorífico de bovinos, com a introdução de novas tecnologias no processo produtivo. Com o auxílio de metodologia de natureza qualitativa foram realizados levantamentos em três frigoríficos de bovinos, sendo dois em Mato Grosso do Sul e outro frigorífico de referência no segmento, situado no estado de Goiás. Através de entrevistas semi-estruturadas junto a operários, supervisores, gerentes e de especialistas do setor, bem como de observações efetuadas sobre o processo produtivo, buscou-se captar as modificações ocorridas e as que deverão ocorrer no processo de produção, bem como os requisitos de qualificação da mão-de-obra para operá-lo. Foi construído o roteiro das entrevistas, tendo em vista os objetivos do trabalho, buscando captar as percepções dos diferentes interlocutores, bem como buscando identificar a complexidade das atividades e a forma de interação entre as pessoas nas diferentes fases do processo produtivo. Como resultado estabeleceu-se o perfil requerido para os trabalhadores que participarão diretamente do processo produtivo, bem como os programas de qualificação para atender as necessidades decorrentes das novas tecnologias a serem implementadas.
Resumo:
O objeto deste estudo é analisar os resultados do Plano Nacional de Formação Profissional (PLANFOR), com sua forma no Rio Grande do Sul – o “Qualificar” no período de 2000 a 2002, envolvendo os gestores das políticas e os alunos adultos dos cursos, conformando um estudo de caso na cidade de Pelotas. A metodologia qualitativa implementada é de caráter etnográfico, através da conformação de uma amostra com alunos e alunas egressos do curso Integrar, realizado pelo Sindicato dos Trabalhadores da Alimentação, e do programa Coletivos de Trabalho, executado pelo próprio governo estadual, registrando, em diários de campo, as visitas aos alunos e às alunas nos seus locais de moradia, e a participação de algumas de suas atividades pedagógicas, organizativas. Também são realizadas entrevistas com os gestores estaduais, municipais e instituições executoras dos cursos, e aplicados questionários nos integrantes dos Coletivos de Trabalho, considerando a concepção e a efetivação das políticas pelos gestores e os efeitos dessas na vida dos desempregados, alunos dos cursos. O levantamento empírico orientou a escolha dos ordenadores teóricos, transitando por autores do campo da Educação, Antropologia, Filosofia, História e Sociologia, tais como: Georges Balandier, Norbert Elias, Alberto Melucci, Rodolfo Kusch, Robert Castel, respeitando as especificidades das contribuições teóricas para o objeto de estudo. Os direitos trabalhistas, a carteira de trabalho enquanto constructos modernos de nosso idiossincrático Estado de bem – estar social representavam uma certa seguridade para o trabalhador, que atualmente se encontra de luto pela perversidade da perda de tal condição, de luto pela carteira de trabalho não- assinada O desempregado, a desempregada, ao participarem dos cursos do Qualificar, vivenciam um processo de fagocitação do estar desempregado, enquanto figura de desordem na ordem do emprego, de luto pela carteira de trabalho - não assinada, para o estar desempregado na luta cotidiana pela garantia de sua sobrevivência. A condição do ser e do estar mulher representa um agravante da desordem, estando ela potencialmente aberta para alternativas cooperativas, associativas de geração de trabalho e renda. O ser e o estar pentecostal, umbandista, e, a partir desses credos religiosos, a constituição de éticas religiosas que corroboram com os resultados das políticas públicas; o ser e o estar negro em uma região de herança escravista, aristocrática, com a presença marcante do latifúndio pastoril; dormir para vencer refeições; participar do Movimento dos Trabalhadores Desempregados na busca de linguagens e símbolos próprios em função de seu caráter inédito, tudo isso se constitui como possibilidade de produção e reprodução do ser e do estar desempregado, na perspectiva da ética do cuidado ou na sua ausência. A efetivação de políticas públicas estatais em Educação Profissional, enquanto uma procura incessante da ordem presente na desordem do desemprego, ocorre em uma conjuntura histórica em que, paradoxalmente, o êxito do capital, a complexidade e gravidade dos problemas sociais parecem inibir superações, reconhecendo a possibilidade de novas relações de trabalho que privilegiem o cuidado, a solidariedade, novas formas do ser e do estar no mundo.
Resumo:
A proposta deste trabalho, consiste na elaboração de uma ferramenta computacional para a medição de campos de velocidades em escoamentos com baixas velocidades (< 0,5 m/s) utilizando o processamento digital de imagens. Ao longo dos anos, inúmeras técnicas foram desenvolvidas com este objetivo. Para cada tipo de aplicação, uma técnica se aplica com maior ou menor eficiência do que outras. Para o caso de estudos em fluídos transparentes, onde o escoamento pode ser visualizado, técnicas que utilizam processamento digital de imagens vêm ganhando um grande impulso tecnológico nos últimos anos. Este impulso, é devido a fatores como: câmaras vídeo filmadoras de última geração, dispositivos de aquisição de imagens e componentes de processamento e armazenamento de dados cada vez mais poderosos. Neste contexto, está a velocimetria por processamento de imagens de partículas cuja sigla é PIV (particle image velocimetry). Existem várias formas de se implementar um sistema do tipo PIV. As variantes dependem, basicamente, do equipamento utilizado. Para sua implementação é necessário, inicialmente, um sistema de iluminação que incide em partículas traçadoras adicionadas ao fluido em estudo. Após, as partículas em movimento são filmadas ou fotografadas e suas imagens adquiridas por um computador através de dispositivos de captura de imagens. As imagens das partículas são então processadas, para a obtenção dos vetores velocidade. Existem diferentes formas de processamento para a obtenção das velocidades. Para o trabalho em questão, devido às características dos equipamentos disponíveis, optou-se por uma metodologia de determinação da trajetória de partículas individuais, que, apesar de limitada em termos de módulo de velocidade, pode ser aplicada a muitos escoamentos reais sob condições controladas Para validar a ferramenta computacional desenvolvida, imagens ideais de partículas foram simuladas como se estivessem em escoamento, através do deslocamento conhecido de vários pixels. Seguindo o objetivo de validação, foi utilizada ainda uma imagem real de partículas, obtida com o auxílio de um plano de iluminação de luz coerente (LASER) e câmaras de vídeo tipo CCD. O programa desenvolvido foi aplicado em situações de escoamento real e os resultados obtidos foram satisfatórios dentro da escala de velocidades inicialmente presumida.
Resumo:
O objetivo da dissertação foi obter um modelo de previsão para os preços dos imóveis, praticados no mercado imobiliário da cidade do Rio de Janeiro no ano 2000, utilizando a Metodologia do Preço Hedônico (HPM), que deve reponder a duas questões: a) Quais são as características relevantes; b) Qual é a forma de relacionamento entre os preços e as características. O modelo de previsão foi obtido, com base em procedimentos econométricos, e teve duas etapas distintas. Na primeira etapa, de formulação do modelo, foram realizadas regressões paras as formas funcionais mais utilizadas pelos estudos na área, a saber, a forma funcional linear, dupla logarítmica e semilogarítmica. Em seguida foi utilizado o procedimento de seleção de modelos “geral para específico”. A segunda etapa consistiu na previsão fora da amostra. Isto é, a partir das formas funcionais reduzidas e utilizando-se dos coeficientes das variáveis significativas, obteve-se os preços estimados e em seguida foram comparados com os preços efetivamente praticados pelo mercado. Calculou-se, então, os Erro Quadrático Médio (EQM) e o Erro Absoluto Médio (EAM) e com o auxílio dos testes de diagnósticos e igualdade de variância, escolheu-se a forma funcional que melhor se adequou aos dados Desta forma, para um nível de significância de 5%, a forma funcional que melhor se adequou aos critérios estabelecidos foi a dupla logarítmica e apresentou como resultado da estimação um R2=92,63% e dentre as características mais relevantes para estimação do preço do imóvel pode-se destacar, entre outras, o tamanho do imóvel como características físicas; a ocorrência de roubos como características de segurança, a quantidade disponível de bens e serviços destinados ao lazer como características de vizinhança e a disponibilidade ou não de serviços de hotelaria como características dummies.
Resumo:
Muitos problemas de Dinâmica em Economia se encaixam dentro de uma estrutura de modelos de decisão seqüencial, sendo resolvidos recursivamente. Programação Dinâmica uma técnica de otimização condicionada que se encarrega de solucionar problemas desse tipo. Esse trabalho tem como objetivo apresentar uma resenha dos principais resultados teóricos em Programação Dinâmica. Os métodos da Programação Dinâmica são válidos tanto para problemas determinísticos como para os que incorporam variável incerteza. esperada objetividade de uma dissertação de Mestrado, no entanto, nos impediu de extender análise, deixando assim de considerar explicitamente neste trabalho modelos estocásticos, que teria enriquecido bastante parte destinada aplicações Teor ia Econômica. No capítulo desenvolvemos instrumental matemático, introduzindo uma série de conceitos resultados sobre os quais se constrói análise nos capítulos subsequentes. Ilustramos tais conceitos com exemplos que seguem um certo encadeamento. Nas seções 1.1 1.2 apresentamos as idéias propriedades de espaços métricos espaços vetoriais. Na seção 1.3, prosseguimos com tópicos em análise funcional, introduzindo noção de norma de um vetor de espaços de Banach. seção 1.4 entra com idéia de contração, Teor ema do Ponto Fixo de Banach e o teor ema de Blackwell. O Teorema de Hahn-Banach, tanto na sua forma de extensão quanto na sua forma geométrica, preocupação na seção 1.5. Em particular, forma geométrica desse teorema seus corolários são importantes para análise conduzida no terceiro capítulo. Por fim, na seção 6, apresentamos Teorema do Máximo. Ao final deste capítulo, como também dos demais, procuramos sempre citar as fontes consultadas bem como extensões ou tratamentos alternativos ao contido no texto. No capítulo II apresentamos os resultados métodos da Programação Dinâmica em si seção 2.1 cuida da base da teoria, com Princípio da Otimal idade de Eellman e a derivação de um algoritmo de Programação Dinâmica. Na seção 2.2 mostramos que esse algoritmo converge para função valor ótima de um problema de horizonte infinito, sendo que esta última satisfaz chamada Equação de Bellman. seção seguinte se preocupa em fornecer caracterizaçBes para função valor mencionada acima, mostrando-se propriedades acerca de sua monotonicidade concavidade. seção 2.4 trata da questão da diferenciabi idade da função valor, que permite se obter alguns resultados de estática Cou dinâmica} comparativa partir da Equação de Bellman. Finalmente, na seção 2.5 apresentamos uma primeira aplicação Teoria Econômica, através de um modelo de crescimento econômico ótimo. No capítulo III introduzimos uma outra técnica de otimização Programação Convexa- mostramos dificuldade em se tentar estabelecer alguma relação de dominância entre Programação Dinâmica Programação Convexa. Na seção 3.2 "apresentamos os Teoremas de Separação, dos quais nos utilizamos na seção seguinte para demonstrar existência de Multiplicadores de Lagrange no problema geral da Programação Convexa. No final desta seção dizemos porque não podemos inferir que em espaços de dimensão infinita Programação Convexa não pode ser aplicada, ao contrário da Programação Dinâmica, que evidenciaria uma dominancia dessa última técnica nesses espaços. Finalmente, capítulo IV destinado uma aplicação imediata das técnicas desenvolvidas principalmente no segundo capítulo. Com auxílio dessas técnicas resolve-se um problema de maximização intertemporal, faz-se uma comparação dos resultados obtidos através de uma solução cooperativa de uma solução não-cooperativa.
Resumo:
Este trabalho tem como objetivo explicar o funcionamento do Sistema Brasileiro de Defesa da Concorrência e apresentar novas ferramentas de auxílio à política antitruste. Para isso, discutiremos o Sistema Norte-Americano de Defesa da Concorrência e, principalmente, o guideline americano, que é a base das técnicas de análise de fusões e aquisições em grande parte dos países, inclusive o Brasil. Uma vez apresentado o ambiente institucional, explicare- mos alguns modelos de simulação de fusões, uma técnica relativamente recente utilizada por alguns órgãos antitruste do mundo que permite fazer previsões do novo nível de preços da indústria após a fusão. Para ilustrar as virtudes do método, aplicaremos o modelo a alguns casos de aquisições conhecidos no Brasil e analisaremos seus resultados.