85 resultados para Princípio do juízo hierárquico
Resumo:
Esta pesquisa objetiva buscar parâmetros que permitam avaliar a eficiência relativa de uma instituição, assim considerada a administração pública direta, de forma a subsidiar as decisões do gestor atendendo ao princípio da eficiência insculpido no artigo 37, caput, da Constituição Federal, considerado o tema oportuno, haja vista a tramitação do projeto de reforma do Judiciário, reforma esta que não pode desconsiderar os princípios que regem a atuação do gestor público, entre eles o da eficiência. O objetivo central da pesquisa, então, foi a estruturação de um modelo de avaliação da eficiência relativa das Varas do Trabalho no Paraná, desdobrado em objetivos específicos. Para alcance de tais objetivos foi adotado o método de pesquisa operacional e, na busca da solução, optou-se pelo modelo matemático oferecido pela DEA – Análise Envoltória de Dados, mais as técnicas como a TGN – Técnica Grupo Nominal, combinada com a de brainstorming e o Método de Análise Hierárquica, para refinamento dos dados obtidos, num total de 14h de reunião, divididas em sete encontros, um a cada semana, com o Corregedor e ex-corregedores da Justiça do Trabalho no Paraná. Os resultados finais foram confirmados, ainda que tenham surpreendido aos profissionais da instituição onde se validou o modelo, através de entrevista semi-estruturada, ficando patente, entre outras situações, a de que o gestor público não se socorre de técnicas de gestão e, em muitas situações, em face do princípio da estrita legalidade, vê -se constrangido na ação em busca de melhor eficiência.
Resumo:
O treinamento de força é praticado por adultos e idosos que visam ao melhoramento do rendimento desportivo ou ao aprimoramento da aptidão física, sendo consensual, no meio científico, as adaptações musculares e ósseas proporcionadas por essa prática. No entanto, a treinabilidade da força em crianças é discutida, principalmente, em função das controvérsias existentes entre estudos, referentes às adaptações provocadas pelo treinamento em nível muscular, bem como sobre as diferenças existentes entre os estágios de maturação. Sendo assim, as crianças são treináveis em relação à força muscular? O objetivo deste estudo foi avaliar a treinabilidade das forças de flexão do cotovelo e extensão do joelho em meninos escolares prépúberes e púberes submetidos a um programa de treinamento de força dinâmico e individualizado e comparálos com um grupo controle. O treinamento foi realizado 3 vezes por semana, durante 12 semanas, com 3 séries de 10-12 repetições, a uma intensidade de 60% a 85% do 1-RM. Também foi avaliada a especificidade do treinamento, comparando-se os ganhos obtidos nas forças dinâmica e estática dos membros superiores e inferiores. Os resultados indicaram que meninos pré-púberes e púberes submetidos ao treinamento apresentaram ganhos significativos na força muscular dinâmica (1-RM), tanto na flexão do cotovelo (88,9% e 44,4%, respectivamente) como na extensão do joelho (36,1% e 32,2%, respectivamente). O grau de treinabilidade da força, avaliado pelo ganho em quilogramas (∆) ocorrido nesses exercícios, foi semelhante nos dois grupos maturacionais. No entanto o treinamento dinâmico não alterou a força muscular estática, pois não houve alteração significativa das forças de flexão do cotovelo e extensão do joelho em 90° e 130°. Estes dados confirmam o princípio da especificidade entre os métodos de treinamento e de avaliação da força muscular. Palavras-chave: treinamento de força, força dinâmica, força estática, pré-púberes e púberes.
Resumo:
A atrazina (ATZ) foi utilizada em experimentos de laboratório para estudos de mineralização e dessorção em amostras de Argissolo Vermelho (PV) e Vertissolo Ebânico (VE), sob campo nativo, com o intuito de identificar os atributos do solo que afetam estes processos. A influência da umidade do solo sobre a atividade microbiana foi avaliada variando-se os teores de umidade em 20, 40, 65 e 85% da capacidade de água disponível do solo (CAD) e aplicando-se 1,5 kg de princípio ativo ha-1 (menor dose recomendada (DR)). Para a avaliação do efeito das doses do herbicida ATZ sobre a atividade microbiana e sobre a taxa de degradação do herbicida foram feitas aplicações de 1x, 2x, 4x, 7x e 10x a DR. Na avaliação do efeito da matéria orgânica sobre a atividade microbiana e sobre a taxa de degradação da ATZ foi feita a aplicação de 10x a DR. Num estudo adicional foram testados quatro métodos de desinfestação de solos (fumigação, tindalização, autoclavagem e irradiação em forno de microondas). A determinação da ATZ na solução foi feita por cromatografia gasosa em extratos de metanol. A atividade microbiana foi monitorada pela evolução de CO2 e a microbiota foi avaliada pela contagem de unidades formadoras de colônias Os resultados indicam que a população microbiana apresenta maior atividade entre 65 e 85% de umidade da CAD e que o aumento das doses de aplicação da ATZ não provoca alterações relevantes na atividade microbiana. Aproximadamente 70% do herbicida aplicado fica sorvido ao solo, independentemente de dose de ATZ aplicada e da classe de solo estudada (PV e VE). As taxas de degradação da ATZ lábil foram baixas e dependentes de doses e tipos de solos, sendo maiores em doses mais elevadas e em solos com maior teor de C. Dentre os métodos de desinfestação, a irradiação em forno de microondas foi o mais adequado, uma vez que apresentou um comportamento similar à testemunha quanto à sorção do herbicida e foi eficiente na redução da população microbiana do solo.
Resumo:
Na realização de atividades físicas o corpo humano exerce forças contra o solo. Em atividades tais como correr e saltar as forças são exercidas através dos pés. Atualmente, sabe-se que estudos da magnitude e direção destas forças, e das maneiras de suas mudanças no tempo, fornecem valiosas informações sobre a performance alcançada no movimento, podendo indicar medidas corretivas que possam aprimorá-la. Na obtenção destas variáveis determinantes no desempenho do movimento utilizam-se instrumentos denominados plataformas de forças, capazes de medir a força de ação realizada sobre sua superfície de contato, e o respectivo momento, permitindo a determinação das três componentes ortogonais de força (Fx, Fy, Fz) e os momentos em torno dos três eixos ortogonais (Mx, My, Mz) simultaneamente. Este trabalho descreve o desenvolvimento teórico de uma plataforma de forças específica para aplicação na decolagem do salto em distância, bem como as alternativas de projeto geradas neste desenvolvimento. Foram buscadas soluções para a realização dos experimentos sob condições naturais de treinamento, visando a construção do instrumento e sua instalação na pista de saltos atléticos. Para isso é proposta a substituição da tábua de impulsão original pela plataforma de forças desenvolvida. Nas alternativas geradas foi utilizado o princípio extensométrico resistivo de medição de forças, que representa uma diminuição substancial no custo de manufatura estimado frente às unidades comercialmente avaliadas. Nestas alternativas, os sensores resistivos “strain gages” são localizados estrategicamente em estruturas metálicas que sustentam uma tampa de material composto com a função de superfície de contato Para a análise estrutural das alternativas estudadas foi utilizado o Método dos Elementos Finitos. Para comparar e escolher a melhor entre as diversas alternativas, foram propostos índices de desempenho. Ao final do trabalho são apresentadas conclusões sobre a metodologia empregada no estudo realizado e sobre o novo modelo de plataforma de forças desenvolvido.
Resumo:
O objetivo geral desse estudo é analisar a aplicação da metodologia do fluxo de caixa descontado, comparando os resultados realizados em dois períodos (exercícios) com os resultados projetados. Nessa análise verifica-se que considerando a taxa do WACC de 14,5% e da perpetuidade de 2,5% como premissas para adoção da metodologia do fluxo de caixa descontado com a contabilidade a valores históricos, incluindo o ativo imobilizado acrescido de reavaliação e o registro de créditos tributários sobre prejuízos fiscais, as diferenças apuradas pelos dois critérios não são relevantes. A pesquisa sobre a utilidade do custo histórico como base de valor demonstrou que a principal vantagem na sua utilização está na sua objetividade de apuração dos valores e a principal desvantagem consiste em não considerar os efeitos da variação da moeda no tempo, na contabilidade. A utilização dos princípios de custo histórico corrigido e de valores de reposição (custo corrente) possibilita a identificação de informações gerenciais de alta qualidade, eliminando os efeitos da inflação, contudo a sua elaboração contém certo grau de complexidade e subjetividade que impõe cuidados adicionais e necessita de maiores recursos para manter-se atualizada. O tratamento quanto aos valores de saída/realização possui como principal restrição a subjetividade quanto a forma de sua apuração. O acompanhamento gerencial fornece um enriquecimento das informações, contudo a exemplo dos valores de custo corrente existem restrições quanto ao grau de complexidade necessária para sua apuração. Em empresas que tenham como principal ativo, os valores intangíveis, Iudícibus recomenda que sejam procedidas, pelo menos avaliações anuais dos intangíveis gerados. Os juros sobre o capital próprio deveriam ser tratados de maneira consistente, bem como correspondentes ao custo do capital próprio como forma de resolver a questão da falta de reconhecimento contábil do custo de oportunidade. As conclusões finais que podemos obter são de que o método do fluxo de caixa descontado representa uma tentativa de antecipar os resultados futuros a serem apurados de acordo com o princípio de custo histórico. Portanto, sua adoção não elimina a necessidade de manter-se a contabilidade que utiliza o custo como base de valor, bem como representa amelhor alternativa em termos de metodologia para apuração do valor da empresa, considerando uma empresa que pretende manter a continuidade de suas operações. Outra consideração é de que a empresa vale o seu valor líquido de realização na hipótese de uma venda ordenada ou o valor de seu fluxo de caixa futuro, dos dois o maior.
Resumo:
A tecnologia de workflow vem apresentando um grande crescimento nos últimos anos. Os Workflow Management Systems (WfMS) ou Sistemas de Gerenciamento de Workflow oferecem uma abordagem sistemática para uniformizar, automatizar e gerenciar os processos de negócios. Esta tecnologia requer técnicas de engenharia de software que facilitem a construção desse tipo de sistema. Há muito vem se formando uma consciência em engenharia de software de que para a obtenção de produtos com alta qualidade e que sejam economicamente viáveis torna-se necessário um conjunto sistemático de processos, técnicas e ferramentas. A reutilização está entre as técnicas mais relevantes desse conjunto. Parte-se do princípio que, reutilizando partes bem especificadas, desenvolvidas e testadas, pode-se construir software em menor tempo e com maior confiabilidade. Muitas técnicas que favorecem a reutilização têm sido propostas ao longo dos últimos anos. Entre estas técnicas estão: engenharia de domínio, frameworks, padrões, arquitetura de software e desenvolvimento baseado em componentes. Porém, o que falta nesse contexto é uma maneira sistemática e previsível de realizar a reutilização. Assim, o enfoque de linha de produto de software surge como uma proposta sistemática de desenvolvimento de software, baseada em uma família de produtos que compartilham um conjunto gerenciado de características entre seus principais artefatos. Estes artefatos incluem uma arquitetura base e um conjunto de componentes comuns para preencher esta arquitetura. O projeto de uma arquitetura para uma família de produtos deve considerar as semelhanças e variabilidades entre os produtos desta família. Esta dissertação apresenta uma proposta de arquitetura de linha de produto para sistemas de gerenciamento de workflow. Esta arquitetura pode ser usada para facilitar o processo de produção de diferentes sistemas de gerenciamento de workflow que possuem características comuns, mas que também possuam aspectos diferentes de acordo com as necessidades da indústria. O desenvolvimento da arquitetura proposta tomou como base a arquitetura genérica e o modelo de referência da Workflow Management Coalition (WfMC) e o padrão de arquitetura Process Manager desenvolvido no contexto do projeto ExPSEE1. O processo de desenvolvimento da arquitetura seguiu o processo sugerido pelo Catalysis com algumas modificações para representar variabilidade. A arquitetura proposta foi descrita e simulada através da ADL (Architecture Description Language) Rapide. A principal contribuição deste trabalho é uma arquitetura de linha de produto para sistemas de gerenciamento de workflow. Pode-se destacar também contribuições para uma proposta de sistematização de um processo de desenvolvimento de arquitetura de linha de produto e também um melhor entendimento dos conceitos e abordagens relacionados à prática de linha de produto, uma vez que esta tecnologia é recente e vem sendo largamente aplicada nas empresas.
Resumo:
A partir de uma base de dados de ações da Telemar S.A., do período de 21/09/1998 a 21/10/2002, e de opções de 02/10/2000 a 21/10/2002, foi avaliado qual o previsor que prevê com maior precisão a volatilidade futura: o implícito ou o estatístico. A volatilidade implícita foi obtida por indução retroativa da fórmula de Black-Scholes. As previsões estatísticas da volatilidade foram obtidas pelos modelos de média móvel ponderada igualmente, modelo GARCH, EGARCH e FIGARCH. Os resultados das regressões do conteúdo de informação revelam que a volatilidade implícita ponderada possui substancial quantidade de informações sobre a volatilidade um passo à frente, pois apresenta o maior R2 ajustado de todas as regressões. Mesmo sendo eficiente, os testes indicam que ela é viesada. Porém, a estatística Wald revela que os modelos EGARCH e FIGARCH são previsores eficientes e não viesados da variação absoluta dos retornos da Telemar S.A. entre t e t + 1, apesar do R2 um pouco inferior a volatilidade implícita. Esse resultado a partir de parâmetros baseados em dados ex-post, de certo modo refuta a hipótese de que as opções possibilitam melhores informações aos participantes do mercado sobre as expectativas de risco ao longo do próximo dia Nas regressões do poder de previsão, que testam a habilidade da variável explicativa em prever a volatilidade ao longo do tempo de maturidade da opção, os resultados rejeitam a hipótese da volatilidade implícita ser um melhor previsor da volatilidade futura. Elas mostram que os coeficientes das volatilidades implícitas e incondicionais são estatisticamente insignificantes, além do R2 ajustado ser zero ou negativo. Isto, a princípio, conduz à rejeição da hipótese de que o mercado de opções é eficiente. Por outro lado, os resultados apresentados pelos modelos de volatilidade condicional revelam que o modelo EGARCH é capaz de explicar 60% da volatilidade futura. No teste de previsor eficiente e não viesado, a estatística Wald não rejeita esta hipótese para o modelo FIGARCH. Ou seja, um modelo que toma os dados ex-post consegue prever a volatilidade futura com maior precisão do que um modelo de natureza forward looking, como é o caso da volatilidade implícita. Desse modo, é melhor seguir a volatilidade estatística - expressa pelo modelo FIGARCH, para prever com maior precisão o comportamento futuro do mercado.
Resumo:
A análise de um algoritmo tem por finalidade melhorar, quando possível, seu desempenho e dar condições de poder optar pelo melhor, dentre os algoritmos existentes, para resolver o mesmo problema. O cálculo da complexidade de algoritmos é muito dependente da classe dos algoritmos analisados. O cálculo depende da função tamanho e das operações fundamentais. Alguns aspectos do cálculo da complexidade, entretanto, não dependem do tipo de problema que o algoritmo resolve, mas somente das estruturas que o compõem, podendo, desta maneira, ser generalizados. Com base neste princípio, surgiu um método para o cálculo da complexidade de algoritmos no pior caso. Neste método foi definido que cada estrutura algorítmica possui uma equação de complexidade associada. Esse método propiciou a análise automática da complexidade de algoritmos. A análise automática de algoritmos tem como principal objetivo tornar o processo de cálculo da complexidade mais acessível. A união da metodologia para o pior caso, associada com a idéia da análise automática de programas, serviu de motivação para o desenvolvimento do protótipo de sistema ANAC, que é uma ferramenta para análise automática da complexidade de algoritmos não recursivos. O objetivo deste trabalho é implementar esta metodologia de cálculo de complexidade de algoritmos no pior caso, com a utilização de técnicas de construção de compiladores para que este sistema possa analisar algoritmos gerando como resultado final a complexidade do algoritmo dada em ordens assintóticas.
Resumo:
A disputa por um filho é uma situação tratada nas instituições judiciais através da nomeação do guardião mais apto para permanecer com a criança ou através de acordos entre as partes envolvidas, sempre considerando o princípio de priorizar o interesse superior da criança. Este estudo tem como objetivo elucidar aspectos da condição psicopatológica da disputa por um filho e suas repercussões no processo identificatório da criança. Para tanto, a pesquisadora partiu da pesquisa psicanalítica e da proposta de construção de caso psicanalítico para elaborar um ensaio metapsico(pato)lógico do caso. Foram realizados três estudos enfocando a criança na situação de disputa entre a família biológica e a família guardiã, na disputa entre uma dupla e mediante a separação conjugal. Ao finalizar o estudo levantou-se a questão sobre a importância da retomada do processo identificatório da criança disputada mediante a firmação do contrato identificatório. A posição dos pais na disputa pelo filho caracterizou a necessidade de exposição de um risco de perda deste filho e do desejo pelo mesmo. O compromisso identificatório da criança deverá ter suas cláusulas revistas e o desejo de um filho, para os pais, incluirá a assunção de um filho desejado e do não desejo de desejo por este filho. A possibilidade de mudança surgirá com a revelação de uma demanda que se autoriza e com a nova posição, que só poderá ser assumida pela criança com a participação da tolerância e flexibilidade daqueles que são os signatários de seu compromisso identificatório. O processo identificatório da criança, nos casos de disputa de guarda, terá a possibilidade de ser retomado através de sua mediação em situação psicanalítica de tratamento.
Resumo:
A porção média da Planície Costeira do Rio Grande do Sul constitui-se numa região crítica em termos de planejamento de uso devido a uma estreita conjunção de fatores de ordem econômica, ambiental, social e histórico-cultural, estabelecida, em princípio, pela presença de um importante complexo estuarinolagunar. Nessa área, bem como no restante da zona costeira do Brasil, as diretrizes para o uso sustentável dos recursos naturais estão materializadas em leis e programas governamentais, dos quais o Plano Nacional de Gerenciamento Costeiro representa a linha mestra para as ações nos três níveis de governo. A exploração de recursos minerais nessa região é uma atividade antiga, relativamente de pouca expressão no contexto estadual, mas de grande significado social, econômico e cultural em nível regional, sustentando a demanda de vários municípios da região. Caracteriza-se principalmente pela exploração de areia e argila para uso na construção civil e para aterro, apresentando ainda potencialidade alta para exploração de turfa e minerais pesados. Com o objetivo de contribuir para a solução dos conflitos gerados por um modelo de exploração mineral ainda inconsistente com as demandas atuais de conservação e desenvolvimento, realizou-se uma análise ambiental integrada da área dos entornos do estuário da Laguna dos Patos, compreendendo os municípios de Pelotas, Rio Grande e São José do Norte. A análise considerou os marcos legais e institucionais, as características diferenciadas do meio físico-natural, os processos econômicos, sociais e culturais, as características da atividade de mineração na região e suas repercussões e interações no sistema ambiental como um todo. As informações disponíveis permitiram a geração de um banco de dados no Sistema de Informações Geográficas IDRISI 32®, na escala 1: 100.000, o qual forneceu a base para a análise interpretativa. Utilizando técnicas de geoprocessamento obteve-se uma síntese dos diagnósticos realizados através da definição, mapeamento e descrição de 19 unidades de planejamento, denominadas unidades geoambientais, posteriormente detalhadas em 108 unidades físico-naturais. A síntese de uma grande quantidade de dados, espacializada na forma de um mapa digital, auxiliou a definição dos critérios para elaboração de um mapa de vulnerabilidade ambiental relativa para a região. Este, aliado ao plano de informação que contém todas as áreas com restrição legal de uso, possibilitou o mapeamento das áreas mais críticas para gestão ambiental. Adicionalmente, considerando a potencialidade de recursos minerais para uso na construção civil e para aterro, os critérios que determinam a maior ou menor atratividade econômica para a sua exploração e as áreas mais críticas em termos de gestão ambiental, elaborou-se um mapa prescritivo que indica as áreas que devem ser consideradas prioritárias para um gerenciamento preventivo. Finalmente, a análise ambiental integrada permitiu a elaboração de um modelo de um plano de gestão para o setor, onde é apresentada uma estrutura seqüencial e ordenada do plano, exemplificada, em cada passo, com as informações disponíveis.
Resumo:
Esta tese expõe minhas reflexões sobre a prática docente de matemática em classes de ensino fundamental. Tem como referencial básico a teoria da abstração reflexionante, como proposta por Jean Piaget, complementada por reflexões sobre a formação do juízo moral e sobre conseqüências pedagógicas pensadas a partir da Epistemologia Genética. Para a coleta de dados foram entrevistados professores, matriculados no Curso de Especialização em Educação Matemática da Faculdade de Educação da Universidade Católica de Pelotas. As entrevistas, desenvolvidas segundo o método clínico piagetiano, buscaram elucidar como se desenvolve o trabalho do professor com o ensino de matemática, enfocando suas concepções de matemática, assim como sua compreensão do processo de ensinar e de aprender. Para o professor, a matemática pode ser descrita como uma ferramenta que descreve quantitativamente idéias a respeito do mundo; ou como um sistema independente, abstrato, fixo, lógico e livre de contradições ou ainda como uma disciplina rígida, cheia de definições, teoremas e procedimentos de caráter absoluto. Em todos os casos cabe ao professor transmitir informações e conduzir os alunos em direção a objetivos pré-definidos, além de exercer a autoridade e o controle disciplinar da turma, permanecendo a aprendizagem como uma decorrência direta do ato de ensinar exercido pelo professor. Considerando minha história de vida como professor, a análise do processo evolutivo do pensamento matemático, as falas dos professores entrevistados e os posicionamentos teóricos colhidos na epistemologia genética proponho, ao final, um conjunto de ações que entendo serem indispensáveis para o desenvolvimento de práticas de ensino e aprendizagem de matemática que assegurem a condição de sujeito de seu fazer tanto ao professor quanto ao aluno.
Resumo:
A presente tese é o resultado final de um trabalho prospectivo evolutivo que buscou apresentar uma nova filosofia de tratamento na instabilidade femoropatelar, voltada para a reconstrução anatômica do ligamento patelofemoral medial. Essa abordagem terapêutica mostrou-se extremamente eficiente, com poucas complicações e com uma recuperação bastante rápida, o que permite um retorno às atividades profissionais ou discentes dos pacientes num espaço de tempo mais curto dos que nas técnicas convencionais. Em um primeiro trabalho foi realizada a reconstrução do ligamento patelofemoral medial (LPFM) com uso de enxerto de poliéster, e neste foi utilizado enxerto livre do tendão do semitendinoso. Como não houve diferença significativa entre os dois, concluiu-se que o princípio defendido de reconstrução do ligamento patelofemoral mediaal é mais importante que a escolha do enxerto a ser utilizado.
Resumo:
O objetivo deste trabalho é calcular, pela primeira vez na literatura, os fluxos de emprego (job flows) na indústria gaúcha nos anos 90 e sua relação com o processo de abertura comercial no período. O trabalho propõe o estudo do emprego na indústria através do comportamento das variações do emprego nas empresas individualmente, para identificar a heterogeneidade de comportamento dentro dos setores, ao invés do uso de médias agregadas, que implicitamente supõe um comportamento homogêneo das empresas. Denominamos fluxos de emprego as taxas de criação e destruição do emprego, estimadas em 5,15% e 6,42% ao ano, em média, respectivamente. Destas obtemos a taxa líquida de crescimento do emprego e a taxa de realocação bruta do emprego, estimadas em –1,27 e 11,57%, respectivamente. Em todos os anos da década houve criação e destruição de emprego simultaneamente, sugerindo uma grande heterogeneidade na dinâmica do emprego nas empresas. A perda média de 1 emprego em 100 por ano no período é resultado da abertura de 5 postos e destruição de 6 postos. Além dos fluxos, este trabalho estima e analisa o impacto do câmbio e da abertura comercial do país nestas taxas. As regressões indicaram para, dada uma depreciação de 1% do câmbio, um impacto de 0,10% sobre a criação de emprego e um impacto, simétrico, de –0,097% sobre a destruição de emprego no trimestre seguinte Por outro lado, a abertura comercial ocorrida nos anos 90, medida através do grau de abertura setorial, não se mostrou significativo para explicar as variações da criação de empregos e da realocação, tendo um efeito positivo na variação líquida e negativo na destruição de postos de trabalho na indústria gaúcha nos anos 90, liderado, a princípio, pelas exportações.
Resumo:
O estudo é um contraponto e uma contribuição à Audiência Pública sobre a “Reorientação Estratégica das Instituições Financeiras Públicas Federais – IFPF’s” proposta pelo Ministério da Fazenda, em junho de 2000, após diagnóstico da participação da Estado no Sistema Financeiro Nacional pelo consórcio Booz- Allen & Hamilton – Fundação Instituto de Pesquisas Econômicas da Universidade de São Paulo (FIPE). A pesquisa qualitativa, tipo estudo de caso explanatório, insere, a princípio, os aspectos teóricos e a evolução dos Sistemas Financeiros como fundamentos às participações históricas do Estado e das IFPF´s na economia. A partir da resenha do trabalho em Audiência Pública faz-se um embate das idéias dos economistas defensores do Estado mínimo e daqueles economistas favoráveis e simpatizantes à continuidade das IFPF’s sob domínio público. Centrando-se a discussão em argumentos históricos, econômicofinanceiros e organizacionais, conclui-se o estudo com a apresentação de uma agenda alternativa, às propostas contidas no relatório em Audiência Pública, sugerindo a permanência do Estado na economia, ajustes patrimoniais, ampliação da rede de varejo das IFPF’s, incentivo e incremento em operações de Project Finance e, principalmente, uma gestão pública para estatais residuais que minimize a ação do fisiologismo neocorporativista mediante governança corporativa socialmente responsável.
Resumo:
Empresas de manufatura alocam uma grande quantidade de recursos no projeto de produtos confiáveis. Quando adequadamente projetados, tais produtos apresentam um número mínimo de falhas operacionais durante seu período de garantia e, de forma geral, durante sua vida útil. Falhas incorridas durante o período de garantia do produto implicam em custos indesejáveis. Assim, a incidência dessas falhas, bem como sua natureza, são normalmente registradas pelas empresas, na busca de informações que permitam aprimorar o projeto de produtos. Modelos de confiabilidade apropriados para estudos de engenharia são freqüentemente desenvolvidos a partir da análise de informações de desempenho em campo dos produtos de interesse. Esta dissertação propõe e exemplifica uma metodologia de análise de confiabilidade de produtos manufaturados, utilizando as informações disponíveis de volume produzido em um período de tempo e dados de tempos-até-falha obtidos da utilização da garantia do produto analisado. Como aplicação, foi realizada a modelagem da distribuição de confiabilidade de um modelo de aparelho condicionador de ar individual. Além da definição do modelo de distribuição da confiabilidade do produto e seus parâmetros, foram identificados os componentes críticos do sistema, os quais apresentam maior impacto sobre a confiabilidade do produto, quando ocorre melhoria de suas distribuições individuais de confiabilidade O trabalho apresenta, também, uma introdução sobre a teoria e princípio de funcionamento de unidades condicionadoras de ar, bem como uma revisão sobre os conceitos teóricos de confiabilidade, estimativas de parâmetros de modelos de distribuições, métodos de modelagens de distribuições e avaliação de confiabilidade utilizados na metodologia proposta.