999 resultados para Classes de capacidade de uso
Resumo:
O ferrato(VI) de potássio, composto fortemente oxidante, foi testado em uma coluna de absorção de gases a fim de remover o NO presente em gases oriundos de fontes fixas de queima de combustíveis fósseis. O poder oxidativo do ferrato(VI) e seu comportamento através da cinética de decaimento do NO foram avaliados com o propósito de melhor entender a reação de oxidação. O sistema lavador de gases foi constituído por três subsistemas: o primeiro, um cilindro contendo uma mistura de NO/N2 com concentrações de NO de 50 e 98 ppm; o segundo, os lavadores de gases, constituído por dois reatores/lavadores com capacidade de 1.000 mL que foram completados com 600 mL de solução lavadora e com 400 mL de anéis de Rasching de vidro e um terceiro, reator/lavador que continha 400 mL da mesma solução dos demais, sem os anéis; o terceiro subsistema, constituído por equipamentos analisadores de NO e NO2. Os equipamentos de medição foram os da marca Oldham, modelo TX 2000, para NO, com escala de medida de 0-100 ppm NO e TX 2000, para NO2, com escala de medida de 0-30 ppm NO2. O ferrato(VI) de potássio foi obtido via úmida e analisado por volumetria de oxidaçãoredução. Os testes de oxidação foram realizados à temperatura de 25oC ± 0,5oC e pressão de uma atmosfera. Inicialmente, testou-se técnicas padrões de remoção de NO de gases a frio. Hidróxido de sódio e hidróxido de potássio tem sido empregados comercialmente na remoção de NOx. As soluções de hidróxido de potássio e de sódio apresentaram a mesma remoção de NO quando a concentração inicial do NO no gás foi de 50 ppm. A maior eficiência de remoção de NO deu-se para a razão molar de 5 OH / 1 NO em cinco minutos de tempo de detenção, utilizando solução de ferrato(VI): 86% para a concentração inicial de 50 ppm e 85% para a concentração inicial de 98 ppm. Os resultados experimentais mostram que a solução de ferrato(VI) de potássio apresentou eficiência de remoção 25% superior à das outras soluções testadas. Apesar das reações de oxidação do NO serem bastante complexas, em função dos resultados analíticos realizados em termos de nitritos e nitratos, pode -se concluir que o NO é oxidado a NO2 e este passa a NO2 - e NO3 2- em solução, confirmando o mecanismo proposto por diversos autores. A abordagem cinética mostrou que a reação de oxidação pelo íon ferrato(VI) é de primeira ordem em relação ao NO e a constante média de velocidade de reação resultante dos dados experimentais foi de 9,80 x 10-4 s-1. A viabilidade técnica do uso do ferrato(VI) de potássio como oxidante do NOx em torres absorvedoras de gases foi comprovada, pois o composto mostrou-se um eficiente oxidante para o NO nas condições testadas.
Resumo:
O método de análise de solo Mehlich-1 em uso no RS e SC não é adequado para a avaliação da disponibilidade de fósforo em solos adubados recentemente com fosfatos naturais, além de, na comparação com o método da resina de troca iônica, freqüentemente apresentar coeficientes de determinação entre fósforo extraído do solo e parâmetros de plantas menores. Questiona-se também a adequaçãodos teores críticos de fósforo e potássio do solo e as doses de fertilizantes recomendadas atualmente, com base em calibrações feitas entre as décadas de 1960 a 1980, sob sistema convencional e amostragem da camada 0-20 cm de profundidade, para o sistema de plantio direto, com amostragem na camada 0-10 cm.Para equacionar alguns dos aspectos mencionados foram feitos três estudos. No primeiro, correlacionou-se o fósforo extraído, pelos métodos Mehlich-1 e resina de troca iônica, de 100 amostras de solos com diferentes classes de textura e teores de fósforo, com o objetivo de obter um índice de equivalência entre o fósforo determinado por ambos os métodos. No segundo estudo, foram enterradas lâminas de resina para avaliar a capacidade da resina em estimar a disponibilidade de fósforo para as plantas de milho e arroz em diferentes estádios de desenvolvimento. No terceiro estudo, utilizaram-se resultados de experimentos com doses de fósforo e potássio, cultivados com soja, trigo e milho, para re-calibrar os teores críticos de fósforo e potássio do solo pelo método Mehlich-1, e calibrar os resultados obtidos com o método Mehlich-3 e resina Os resultados obtidos no estudo 1 não permitiram estabelecer um índice de equivalência analítico entre os métodos Mehlich-1 e resina, pois a extração depende também da interação entre teores de fósforo e argila do solo. O método da resina enterrada foi eficiente para determinar a disponibilidade de fósforo para o arroz em solos inundados, mas pode não ser adequado para a cultura do milho. Os teores críticos de fósforo e potássio utilizados atualmente para recomendação de adubação estão subestimados, tanto para as amostras na camada 0-20, como na 0-10 cm de profundidade. As doses de fósforo e potássio, recomendadas para as culturas soja e milho, também estão subestimadas. Os coeficientes de determinação, obtidos entre o fósforo e o potássio determinados pelos métodos Mehlich-1 e resina e o rendimento das culturas soja, milho e trigo, foram maiores do que os obtidos com o Mehlich-3 para mesma relação.
Resumo:
O objetivo do presente estudo foi avaliar, através de Microscopia Eletrônica de Varredura (MEV), a capacidade de remoção da lama dentinária nas regiões cervical, média e apical do canal radicular após a utilização das soluções de EDTA dissódico, trissódico e tetrassódico a 17% e do gel de EDTA a 24% durante a preparação do canal radicular. A amostra consistiu em 100 dentes humanos, monorradiculares, extraídos, aleatoriamente divididos em cinco grupos. Nos grupos experimentais foram utilizados soluções de EDTA dissódico, trissódico e tetrassódico a 17 % e gel de EDTA trissódico a 24%. No grupo controle foi utilizado água destilada. Cada dente foi dividido longitudinalmente e analisado no MEV. As paredes dos canais radiculares foram examinadas nas regiões cervical, média e apical quanto à remoção da lama dentinária, presença de detritos e abertura dos túbulos dentinários. Durante este processo, foram realizadas fotomicrografias com aumento de 2000 vezes. O sistema de classificação utilizado na análise foi: 0 – ausência de lama dentinária, túbulos dentinários abertos e livres de detritos; 1 – lama dentinária moderada, contorno dos túbulos visíveis ou parcialmente preenchidos por detritos; 2 – abundante lama dentinária, sem distinção do contorno dos túbulos. Para a análise estatística foram utilizados os testes não paramétricos de Friedman e Kruskall-Wallis. Os resultados mostraram diferença estatística entre os grupos teste e controle (p=0,01). No entanto, quando comparados entre si, os grupos teste não apresentaram diferença significativa. Foi verificado na comparação entre as regiões cervical, média e apical diferença estatística no grupo que foi utilizado EDTA gel (p=0,01). Neste grupo foi observado que a eficácia de remoção da lama dentinária foi menor na região apical do que nas regiões cervical e média, que não apresentaram diferenças entre si. A maior presença de lama dentinária na região apical foi confirmada ao se reunir todos os grupos em que se utilizou EDTA e comprovar que a região apical apresentava significativamente mais lama dentinária do que as regiões cervical e média (p=0,01). Dessa forma pode-se concluir que as soluções de EDTA dissódico, trissódico e tetrassódico a 17% e o gel de EDTA trissódico a 24% foram eficientes na remoção da lama dentinária e que a região apical do canal radicular apresentou maior presença de lama dentinária do que as regiões cervical e média.
Resumo:
Este artigo apresenta os resultados de uma pesquisa sobre uso de derivativos junto a 50 empresas não-financeiras brasileiras. A proporção de empresas que usam derivativos no Brasil não é significativamente diferente da de outros países que foram objeto de pesquisa, com exceção dos EUA. A exemplo do que foi verificado internacionalmente, as evidências sugerem que os gestores de empresas não-financeiras brasileiras usam derivativos principalmente com o propósito de gerenciar risco, e não com fins especulativos. O uso de derivativos por classes de risco no Brasil segue os padrões internacionais, ou seja, o tipo de exposição mais comumente gerenciada com derivativos é a cambial, seguido pelo risco de taxas de juros, de commodities e de patrimônio. Apesar da alta volatilidade dos mercados brasileiros, as preocupações principais dos gestores de risco brasileiros parecem estar mais ligadas às questões do arcabouço legal e institucional do que aos aspectos econômico-financeiros diferentemente do encontrado em outros países.
Resumo:
This study aims to bring back the debate on the use of the purchasing power of the State as instrument to boost other public policies established by federal entities. Besides putting it in a context of innovation in the public sector, the study of this issue must consider all its variables and questions, whwther of legal, economic, social or political order, starting with the one I consider the most important: the possibility of the State to assert its power of puchasing in order to design and promote markets, searching to achieve other objectives rather than those traditionally accepted. Thus, in the analysis of a direct application of a new practice, this study evaluates the implementation of the Additional Law number 123/06, which gives a differentiating treatment to micro and small enterprises in public contracting. By means of interviews, information was collected with the relevant actors in in this phase. The conclusion was that aspects such as the heterogeneity of the segment of the MPE`s and their low capacity of articulation, along with the endogenous obstacles of the instituion of the bidding, contribute decively to the low stage of the implementation that occurs at this moment.
Resumo:
A competição entre as empresas pela busca de mercado tem levado ao aprimoramento de suas atividades e melhorias em seus processos produtivos. Este trabalho apresenta a análise do processo produtivo de uma empresa produtora de embalagens de papelão ondulado através da técnica da simulação computacional. O simulador ProModel foi utilizado no desenvolvimento do estudo e se mostrou adequado para a modelagem do processo produtivo e geração de resultados. Com a sua capacidade de animação, criação de macros e geração de relatórios, ficou facilitado o desenvolvimento e analise de cenários. Isto permitiu que o foco do estudo ficasse sobre a análise dos resultados e simulação de cenários e não na programação para criação e rodagem do modelo de simulação. A partir da modelagem do processo real de trabalho foi possível identificar restrições de capacidades no sistema, o que levou à criação de cenários onde oportunidades de melhoria pudessem ser avaliadas. A revelação de que a parcial utilização do equipamento denominado Onduladeira, o qual gerava perdas por ociosidade nas impressoras, acabou se mostrando como o gargalo do processo produtivo é o mais indicado ponto de melhoria. Com o incremento de produtividade sobre este equipamento, definido a partir de análises dos cenários, obteve-se como resultado a utilização de 100% dos demais equipamentos do processo produtivo. Análises e comparações de resultados entre os cenários e as conclusões do estudo são apresentadas no final do trabalho.
Resumo:
This dissertation aims at examining empirical evidences obtained in the light of taxonomies and strategies for measuring firms technological capabilities and innovation in the context of developing countries, motivated by the fact that debates and studies directed to innovation has been intensified, for the last thirty years, by the recognition of its vital and growing importance to the technological, economic, competitive and industrial development of firms and countries. Two main tendencies can be identified on this debate. At one side, it¿s the literature related to the developed countries logic, whose companies are, in majority, positioned at the technological frontier, characterized by the domain of innovative advanced capabilities, directed to its sustaining, deepening and renewal. At the other side, there are the perspectives directed to the developing countries reality, where there is a prevalence of companies with deficiency of resources, still in process of accumulating basic and intermediate technological capabilities, with characteristics and technological development trajectories distinct or even reverse from those of developing countries. From this last tradition of studies, the measuring approaches based in C&T indicators and in types and levels of technological capabilities stand out. The first offers a macro level, aggregated perspective, through the analysis of a representative sample of firms, seeking to the generation of internationally comparable data, without addressing the intraorganizational specificities and nuances of the paths of technological accumulation developed by the firms, using, mostly, R&D statistics, patents, individual qualifications, indicators that carry their own limitations. On the other hand, studies that examine types and levels of technological capabilities are scarce, usually directed to a small sample of firms and/or industrial sectors. Therefore, in the light of the focus and potentialities of each of the perspectives, this scenario exposes a lack of studies that examine, in a parallel and complementary way, both types of strategies, seeking to offer more realistic, consistent and concrete information about the technological reality of developing countries. In order to close this gap, this dissertation examines (i) strategies of innovation measurement in the contexts of developing countries based on traditional approaches and C&T indicators, represented by four innovation surveys - ECIB, PINTEC, PAEP and EAI, and, (ii) from the perspective of technological capabilities as an intrinsic resource of the firm, the development of which occurs in a cumulative way and based on learning, presents and extracts generalizations of empirical applications of a metric that identifies types and levels of technological capabilities, through a dynamic and intra-firm perspective. The exam of the empirical evidences of the two approaches showed what each one of the metrics are capable to offer and the way they can contribute to the generation of information that reflect the technological development of specific industrial sectors in developing countries. In spite of the fact that the focus, objective, perspective, inclusion, scope and lens used are substantially distinct, generating, on a side, an aggregated view, and of other, an intra-sector, intra-organizational and specific view, the results suggest that the use of one doesn't implicate discarding or abdicating the other. On the contrary, using both in a complementary way means the generation of more complete, rich and relevant evidences and analysis that offer a realistic notion of the industrial development and contribute in a more direct way to the design of corporate strategies and government policies, including those directed to the macro level aspects just as those more specific and focused, designed to increment and foment firms in-house innovative efforts.
Resumo:
O conhecimento organizacional vem se convertendo em um dos principais tópicos de interesse dos gestores, uma vez que as organizações passam a compreendê-lo como seu principal recurso e fonte de vantagem competitiva. Assim, a gestão de conhecimento procura identificar e desenvolver o conhecimento coletivo da organização para aumentar a capacidade de inovação e resposta e ajudá-la a competir. Considera-se que o sucesso da gestão de conhecimento depende mais das pessoas do que da tecnologia empregada, ao mesmo tempo em que se reconhece que a disponibilidade de novas tecnologias de informação tem proporcionado grande impulso a estas iniciativas. Esta pesquisa objetiva compreender como a tecnologia de informação está sendo utilizada no suporte a estratégias de gestão de conhecimento em organizações fabricantes de software. Para isto, apresenta um estudo de caso com uma empresa desta área, que analisa o modelo de Hansen et al. de estratégias de gestão de conhecimento e explora algumas lacunas encontradas neste modelo. O resultado da pesquisa é sintetizado na fase final, que apresenta um esquema conceitual sugerindo adições ao modelo original.
Resumo:
Esta pesquisa teve como objetivo principal explorar a influência da folga organizacional na capacidade de inovação em empresas de manufatura do Estado de São Paulo, em diversos segmentos da indústria de transformação. Fez parte deste objetivo testar, em um contexto de cadeia de valor, um modelo do papel da cooperação como driver da capacidade de inovar da empresa, e por fim, verificar a influência da capacidade de inovar no desempenho na empresa. Esta pesquisa fez uso de duas abordagens: uma quantitativa e outra qualitativa de maneira complementar. A pesquisa quantitativa foi realizada com a utilização da pesquisa de Sondagem das Necessidades de Inovação na Indústria Paulista (SNIIP) elaborada pela Federação das Indústrias do Estado de São Paulo (FIESP). Compõe esta base 229 empresas do segmento de indústria de transformação paulista, de 24 setores industriais diferentes. Como ferramental metodológico para a abordagem quantitativa, utilizou-se a técnica estatística de regressão múltipla. Para a abordagem qualitativa, utilizou-se uma amostra de 9 empresas de porte médio e grande de diferentes setores da indústria de transformação paulista. Na pesquisa qualitativa fez-se uso do método de estudo de caso para complementar e aprofundar as análises do estudo quantitativo. Entre os principais resultados desta pesquisa observou-se que a influência da folga organizacional na capacidade de inovação da firma, é positiva. A cooperação, por sua vez, aparece como um agente representativo e que influencia positivamente a capacidade de inovar das firmas analisadas. A capacidade de uma firma inovar, por sua vez, influencia positivamente seu desempenho.
Resumo:
O presente trabalho descreve estudos relativos à validação e aperfeiçoamento de uma nova técnica de adsorção em flocos de materiais adsorventes pulverizados e seu uso em reator de leito expandido/fluidizado. A técnica consiste na utilização de polímeros aquo-solúveis para a floculação de suspensões aquosas de materiais adsorventes pulverizados, baseando-se no baixo custo dos mesmos e no fato de que a capacidade de adsorção dos flocos resultantes não é afetada significativamente pelo polímero floculante. O uso da técnica em reator de leito expandido/fluidizado possibilita ainda a vantagem de união dos processos de adsorção e separação sólido-líquido em uma única etapa. Os estudos foram realizados a partir da floculação de carvão ativado e zeólita natural pulverizados, separados e em mistura, para a adsorção de fenol e nitrogênio amoniacal (separados e misturados). Foi realizada uma adequada caracterização dos materiais particulados, incluindo a determinação de distribuição granulométrica, área superficial específica, potencial zeta, dentre outros. Estudos em escala de bancada foram realizados com ambos os poluentes e materiais adsorventes a fim de obter parâmetros de processo (capacidade de adsorção, cinética e concentração de floculante). Estudos em escala semipiloto com um reator de leito expandido/fluidizado de geometria cilíndrico-cônica foram realizados para estudar a adsorção dos poluentes em leito de flocos dos materiais adsorventes (separados e misturados), assim como a regeneração/reciclo do mesmo. A caracterização dos materiais apresentou propriedades semelhantes para ambos (distribuição granulométrica, potencial zeta) e outras distintas para cada um deles (massa específica, área superficial específica) A capacidade de troca catiônica da zeólita natural foi determinada em 1,02 meq NH4 +.g-1 (após homoionização com NaCl). Este material, proveniente do Chile, mostrou um significativo potencial de aplicação como adsorvente de corantes (como o azul de metileno) e, principalmente, de nitrogênio amoniacal. O floculante utilizado na geração dos flocos adsorventes, separados e misturados, foi do tipo poliacrilamida catiônica e sua concentração ótima foi de 4 e 5 mg.g-1, respectivamente. Os resultados obtidos nos estudos em escala de bancada (batelada) mostraram elevada cinética (valor médio de 0,3 min-1) e alta capacidade (valor médio de 13,4 mg NH3-N.g-1) em pH neutro (aproximadamente 6) para a adsorção de nitrogênio amoniacal em zeólita natural pulverizada e floculada. No caso da adsorção de fenol em carvão ativado pulverizado e floculado, foram obtidas uma alta cinética (valor médio de 0,8 min-1) e elevada capacidade (156 mg.g-1). Os dados cinéticos e de equilíbrio foram adequadamente descritos por um modelo cinético para reações reversíveis de primeira ordem e pelas isotermas de Langmuir e Freundlich, respectivamente. Tanto a cinética quanto a capacidade de adsorção não mostraram-se afetadas de forma significativa pelo uso do polímero floculante, sendo observada uma ausência de sinergismo na adsorção dos poluentes devido à mistura dos dois materiais adsorventes, tanto pulverizados quanto floculados. Os resultados obtidos nos estudos em escala semipiloto validaram a utilização de flocos de zeólita natural e carvão ativado pulverizados (não- misturados) em reator de leito expandido/fluidizado na adsorção de nitrogênio amoniacal (11 mg NH3-N.g-1) e fenol (132 mg.g-1), respectivamente, dentro das condições experimentais estabelecidas (taxas de aplicação de 38 e 19 m.h-1, respectivamente) A regeneração/reciclo do leito saturado de flocos mostrou-se viável para o caso da adsorção de nitrogênio amoniacal em zeólita natural, sendo insatisfatória para o leito de carvão ativado saturado em fenol. O uso de leitos mistos mostrou-se eficaz e com vantagens tais como a adsorção de múltiplos poluentes em uma única etapa e a possibilidade de aumento da taxa de aplicação no uso de materiais adsorventes menos densos (carvão ativado) misturados com materiais adsorventes de maior massa específica (zeólita natural). Uma pré-avaliação dos custos operacionais envolvidos na técnica para uso em reator de leito expandido/fluidizado foi realizada, sendo estimados entre 0,32 e 1,48 US$.m-3 (volume de solução sintética de poluente tratada até o ponto de exaustão do leito). Finalmente, são discutidas as potencialidades, vantagens/desvantagens e a viabilidade da nova técnica como processo físico-químico alternativo de adsorção em materiais adsorventes pulverizados.
Resumo:
Algumas abordagens recentes chamaram a atenção para a importância das empresas mobilizarem sua capacidade produtiva para solucionar problemas das classes menos favorecidas da sociedade. Especificamente para o caso de serviços financeiros, defende-se que a atuação na baixa renda tem implicações positivas na sociedade como um todo, ao promover sua re-inclusão no sistema tradicional. Dentro desse cenário, as iniciativas de microfinanças parecem jogar luz a esse problema ao tentar levar acesso a serviços financeiros para a população de baixa renda. Porém, tais iniciativas ainda parecem não ter demonstrado o seu real potencial, e prova disso é a persistência dos crônicos indicadores de pobreza e de desigualdade social. Isso acontece porque as abordagens atuais de microfinanças apresentam limitações, dentre as quais as tecnológicas são uma das mais importantes. Por outro lado, existe um fenômeno que se manifesta especificamente no Brasil e que se refere ao grande crescimento dos chamados correspondentes bancários (CBs), em que o correspondente, que, na maior parte das vezes, é um varejo, oferta serviços em nome do banco. Alguns estudos relacionam esses dois conceitos, microfinanças e CBs, e propõem o CB como um canal tecnológico para a promoção das microfinanças. Dentro desse cenário, uma pergunta pertinente e ainda pouco explorada na literatura é: como ocorrem a adoção, implementação e uso das tecnologias de correspondentes bancários na oferta de serviços financeiros para a população de baixa renda no Brasil? De posse dessa pergunta de pesquisa, procedeu-se a um estudo de caso em profundidade e o objeto de estudo foi a forma de atuação do Banco Lemon, em especial, por possuir uma extensa rede de CBs, ser baseado exclusivamente em CBs (não tem agências físicas) e estar focado na baixa renda. A partir de uma abordagem que inclui contribuições das escolas do estruturacionismo, do construtuvismo e do contextualismo, foi possível entender como ocorreu o processo de negociação entre dois grupos relevantes, o Banco Lemon e o gestor de redes, que é um intermediário entre o banco e o varejo, na formação da tecnologia que foi adotada, implementada e usada. Os principais achados da pesquisa referem-se ao entendimento de como a tecnologia é usada para prover os serviços que o Banco Lemon quer ofertar e como dois grupos relevantes interagem, negociam e produzem a tecnologia na prática.
Resumo:
O desenvolvimento de novos, e mais eficientes, métodos de classificação de imagem digitais em Sensoriamento Remoto se constitui em uma importante área que tem chamado a atenção de muitos pesquisadores. Nesta área em particular, um problema que freqüentemente surge para a classificação de imagens digitais provenientes de cenas naturais, é a ocorrência de classes espectrais com resposta espectral muito similar. Nestes casos, os sistemas sensores mais comuns e os métodos tradicionais de classificação de imagem apresentam muito baixa precisão ou mesmo falham completamente. Várias abordagens vem sendo propostas na literatura. Uma das possíveis abordagens consiste em fazer uso de informações auxiliares que possuam poder discriminante para as classes sob análise. Esta é a possibilidade explorada nesta dissertação, utilizar-se de dados auxiliares, provenientes de fontes diversas, tais como: temperatura, precipitação, altitude e classes de solo. Estes dados são então combinados com dados provenientes de imagens multiespectrais de acordo com a Teoria de Evidência proposta por Dempster e Shafer. Esta abordagem é testada usando dados de uma área no Estado do Rio Grande do Sul, Brasil, com a finalidade de delimitar a ocorrência da Mata Nativa com Araucária (composta pela conifera Araucaria angustifolia), que é de difícil separação em relação a outras classes espectrais que ocorrem na região, tornando difícil o processo preciso de classificação.
Resumo:
A complexidade do ambiente de negócios atual se mostrou num nível nunca experimentado com a crise econômica mundial iniciada no ano de 2008 e que despertou em muitos um sentimento de insegurança, perda de referência que não era percebido há muito tempo. Governos, indústrias, bancos e investidores se mostraram desconhecedores da situação e incapazes de reagir diante da nova realidade. Por essa perspectiva, entender o negócio em que se encontram como também as tendências deste no médio e longo prazo se tornaram ainda mais fundamentais para executivos e empresários. Em paralelo, o campo da Administração vem estudando já há algum tempo as causas do desempenho positivo ou negativo de uma organização. Executivos e pesquisadores buscam tal entendimento por meio da utilização de métodos e sistemas eficazes de mensuração e avaliação de desempenho organizacional. Dentro desse cenário de complexidade do ambiente empresarial, surge a necessidade de elaboração de um processo ou sistema para mensuração de novas medidas confiáveis que possam ajudar tanto na previsão do desempenho de longo prazo quanto oferecer ferramentas para correção de estratégias. As variáveis não financeiras têm capacidade maior de auxiliar os gestores na perspectiva de longo prazo, mas ainda existe uma dificuldade na aceitação da utilização e na tradução dessas variáveis em medidas financeiras. Assim, o presente estudo apresenta um enfoque tanto exploratório, por meio da revisão da literatura, base para as discussões sobre a importância das variáveis não-financeiras na análise de desempenho das empresas, quanto descritivo, por meio da descrição e análise de estudos de casos de cinco instituições financeiras que fazem análises de empresas do setor de siderurgia no Brasil. Assim, a partir da revisão da teoria de Análise de Empresas, Indicadores de Desempenho, Desempenho Empresarial e Competitividade e de uma pesquisa entre analistas financeiros das instituições selecionadas, este estudo pretende entender como os analistas financeiros fazem uso de diferentes medidas não-financeiras para determinar os lucros futuros estimados e avaliar as empresas. Dessa forma, espera-se que se possa contribuir para a discussão do tema, tanto do ponto de vista da análise teórica, quanto da verificação das práticas em organizações brasileiras.
Resumo:
Este trabalho tem como objetivo o levantamento e análise de fatores intervenientes na capacidade de processamento de veículos em cabines de praças de pedágio com o recolhimento manual de tarifas. Buscando o entendimento de como estes fatores interferem nos tempos de atendimento nas cabines foi realizada uma análise estatística e posterior modelagem, que utilizou redes neurais artificiais. Redes neurais artificiais são úteis no entendimento de problemas com alto grau de complexidade, que agregam diversas variáveis de entrada com relações não-lineares entre si. As variáveis de entrada escolhidas para a modelagem foram forma de pagamento, intensidade de fluxo, valor das tarifas e classes de veículos. A variável de saída foi o tempo de atendimento nas cabines de cobrança de pedágios. Foram obtidos três modelos que buscaram refletir a variação dos tempos de atendimento para um mesmo conjunto de dados de entrada: Modelo de Tempos Mínimos de Atendimento; Modelo de 85° Percentil de Tempos de Atendimento, e; Modelo de Tempos Máximos de Atendimento. As análises de sensibilidade dos modelos indicaram que tempos de atendimento são fortemente influenciados pelo fluxo de veículos nas praças. Quanto mais intenso o fluxo de veículos, tempos mínimos de atendimento tendem a sofrer leve aumento, indicando pequena perda de rendimento do processo. Perda de rendimento pode ser resultado de (i) necessidade de digitação das placas de licença dos veículos no sistema operacional das praças-dificuldade de visualização das mesmas em situação de filas, e (ii) desgaste físico dos arrecadadores. O desgaste físico dos arrecadadores também se apresenta como provável causa para o aumento de tempos mínimos de atendimento para fluxos altos. Quanto mais intenso o fluxo de veículos, menores são os tempos máximos de atendimento. Quanto maior o fluxo de veículos nas praças, as modelagens indicam uma maior estabilidade do sistema com relação ao processamento de veículos.
Resumo:
Em cenas naturais, ocorrem com certa freqüência classes espectralmente muito similares, isto é, os vetores média são muito próximos. Em situações como esta, dados de baixa dimensionalidade (LandSat-TM, Spot) não permitem uma classificação acurada da cena. Por outro lado, sabe-se que dados em alta dimensionalidade [FUK 90] tornam possível a separação destas classes, desde que as matrizes covariância sejam suficientemente distintas. Neste caso, o problema de natureza prática que surge é o da estimação dos parâmetros que caracterizam a distribuição de cada classe. Na medida em que a dimensionalidade dos dados cresce, aumenta o número de parâmetros a serem estimados, especialmente na matriz covariância. Contudo, é sabido que, no mundo real, a quantidade de amostras de treinamento disponíveis, é freqüentemente muito limitada, ocasionando problemas na estimação dos parâmetros necessários ao classificador, degradando portanto a acurácia do processo de classificação, na medida em que a dimensionalidade dos dados aumenta. O Efeito de Hughes, como é chamado este fenômeno, já é bem conhecido no meio científico, e estudos vêm sendo realizados com o objetivo de mitigar este efeito. Entre as alternativas propostas com a finalidade de mitigar o Efeito de Hughes, encontram-se as técnicas de regularização da matriz covariância. Deste modo, técnicas de regularização para a estimação da matriz covariância das classes, tornam-se um tópico interessante de estudo, bem como o comportamento destas técnicas em ambientes de dados de imagens digitais de alta dimensionalidade em sensoriamento remoto, como por exemplo, os dados fornecidos pelo sensor AVIRIS. Neste estudo, é feita uma contextualização em sensoriamento remoto, descrito o sistema sensor AVIRIS, os princípios da análise discriminante linear (LDA), quadrática (QDA) e regularizada (RDA) são apresentados, bem como os experimentos práticos dos métodos, usando dados reais do sensor. Os resultados mostram que, com um número limitado de amostras de treinamento, as técnicas de regularização da matriz covariância foram eficientes em reduzir o Efeito de Hughes. Quanto à acurácia, em alguns casos o modelo quadrático continua sendo o melhor, apesar do Efeito de Hughes, e em outros casos o método de regularização é superior, além de suavizar este efeito. Esta dissertação está organizada da seguinte maneira: No primeiro capítulo é feita uma introdução aos temas: sensoriamento remoto (radiação eletromagnética, espectro eletromagnético, bandas espectrais, assinatura espectral), são também descritos os conceitos, funcionamento do sensor hiperespectral AVIRIS, e os conceitos básicos de reconhecimento de padrões e da abordagem estatística. No segundo capítulo, é feita uma revisão bibliográfica sobre os problemas associados à dimensionalidade dos dados, à descrição das técnicas paramétricas citadas anteriormente, aos métodos de QDA, LDA e RDA, e testes realizados com outros tipos de dados e seus resultados.O terceiro capítulo versa sobre a metodologia que será utilizada nos dados hiperespectrais disponíveis. O quarto capítulo apresenta os testes e experimentos da Análise Discriminante Regularizada (RDA) em imagens hiperespectrais obtidos pelo sensor AVIRIS. No quinto capítulo são apresentados as conclusões e análise final. A contribuição científica deste estudo, relaciona-se à utilização de métodos de regularização da matriz covariância, originalmente propostos por Friedman [FRI 89] para classificação de dados em alta dimensionalidade (dados sintéticos, dados de enologia), para o caso especifico de dados de sensoriamento remoto em alta dimensionalidade (imagens hiperespectrais). A conclusão principal desta dissertação é que o método RDA é útil no processo de classificação de imagens com dados em alta dimensionalidade e classes com características espectrais muito próximas.