1000 resultados para Eficiência e desempenho econômicos


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Pesquisadores e indústrias de todo o mundo estão firmemente comprometidos com o propósito de fazer o processo de usinagem ser precisamente veloz e produtivo. A forte concorrência mundial gerou a procura por processos de usinagem econômicos, com grande capacidade de produção de cavacos e que produzam peças com elevada qualidade. Dentre as novas tecnologias que começaram a ser empregadas, e deve tornar-se o caminho certo a ser trilhado na busca da competitividade em curto espaço de tempo, está a tecnologia de usinagem com altas velocidades (HSM de High Speed Machining). A tecnologia HSM surge como componente essencial na otimização dos esforços para manutenção e aumento da competitividade global das empresas. Durante os últimos anos a usinagem com alta velocidade tem ganhado grande importância, sendo dada uma maior atenção ao desenvolvimento e à disponibilização no mercado de máquinas-ferramentas com rotações muito elevadas (20.000 - 100.000 rpm). O processo de usinagem com alta velocidade está sendo usado não apenas para ligas de alumínio e cobre, mas também para materiais de difícil usinabilidade, como os aços temperados e superligas à base de níquel. Porém, quando se trata de materiais de difícil corte, têm-se observado poucas publicações, principalmente no processo de torneamento. Mas, antes que a tecnologia HSM possa ser empregada de uma forma econômica, todos os componentes envolvidos no processo de usinagem, incluindo a máquina, o eixo-árvore, a ferramenta e o pessoal, precisam estar afinados com as peculiaridades deste novo processo. No que diz respeito às máquinas-ferramenta, isto significa que elas têm que satisfazer requisitos particulares de segurança. As ferramentas, devido à otimização de suas geometrias, substratos e revestimentos, contribuem para o sucesso deste processo. O presente trabalho objetiva estudar o comportamento de diversas geometrias ) de insertos de cerâmica (Al2O3 + SiCw e Al2O3 + TIC) e PCBN com duas concentrações de CBN na forma padrão, assim como modificações na geometria das arestas de corte empregadas em torneamento com alta velocidade em superligas à base de níquel (Inconel 718 e Waspaloy). Os materiais foram tratados termicamente para dureza de 44 e 40 HRC respectivamente, e usinados sob condição de corte a seco e com utilização da técnica de mínima quantidade de lubrificante (minimal quantity lubricant - MQL) visando atender requisitos ambientais. As superligas à base de níquel são conhecidas como materiais de difícil usinabilidade devido à alta dureza, alta resistência mecânica em alta temperatura, afinidade para reagir com materiais da ferramenta e baixa condutividade térmica. A usinagem de superligas afeta negativamente a integridade da peça. Por essa razão, cuidados especiais devem ser tomados para assegurar a vida da ferramenta e a integridade superficial de componentes usinados por intermédio de controle dos principais parâmetros de usinagem. Experimentos foram realizados sob diversas condições de corte e geometrias de ferramentas para avaliação dos parâmetros: força de corte, temperatura, emissão acústica e integridade superficial (rugosidade superficial, tensão residual, microdureza e microestrutura) e mecanismos de desgaste. Mediante os resultados apresentados, recomenda-se à geometria de melhor desempenho nos parâmetros citados e confirma-se a eficiência da técnica MQL. Dentre as ferramentas e geometrias testadas, a que apresentou melhor desempenho foi a ferramenta cerâmica CC650 seguida da ferramenta cerâmica CC670 ambas com formato redondo e geometria 2 (chanfro em T de 0,15 x 15º com raio de aresta de 0,03 mm).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As aflatoxinas são metabólitos secundários produzidos por fungos toxigênicos das espécies Aspergillus flavus, A. parasiticus e A. nomius. São amplamente encontradas em matérias-primas de rações animais, em especial o milho, e têm a capacidade de levar a quadros clínicos agudos ou crônicos de aflatoxicose, caracterizados por, desde a morte por hepatite aguda até a diminuição do desempenho zootécnico por diminuição de peso ou consumo de ração. A aflatoxina B1 tem sido considerada o metabólito mais perigoso, uma vez que possui alto poder hepatotóxico, além de ser mutagênica e carcinogênica. Atualmente a ciência trabalha rumo à descoberta de substâncias que sejam indicadoras confiáveis de contaminação por componentes tóxicos em homens e em animais, os chamados biomarcadores, que medem uma mudança celular, biológica ou molecular em um meio biológico (tecidos humanos, células ou fluídos) que fornecem informação a respeito de uma doença ou exposição a uma determinada substância. Sua detecção pode auxiliar na identificação, no diagnóstico e no tratamento de indivíduos afetados que podem estar sob risco, mas ainda não exibem os sintomas. Sendo assim, com o auxílio de análises que confirmem a patogenicidade da aflatoxina B1 (determinação da atividade de enzimas hepáticas, da avaliação da função renal, de hematologia, da dosagem de minerais séricos e da avaliação de desempenho zootécnico), o objetivo deste trabalho foi avaliar a aplicabilidade da determinação de resíduos hepáticos de aflatoxinas e do aduto sérico AFB1-lisina na avaliação da eficiência de adsorventes em frangos de corte. Utilizou-se 240 pintos de 1 dia, machos, de linhagem Cobb 500®, distribuídos aleatoriamente em 4 dietas experimentais: Controle Negativo: Ração Basal (RB); RB + 0,5% de adsorvente ((aluminosilicato de cálcio e sódio hidratado/HSCAS); RB + 0,5% de adsorvente + 500 µg de AFB1/kg de ração e; RB + 500 µg de AFB1/kg de ração.Os resultados experimentais mostram que o efeito deletério da AFB1, na concentração utilizada, é mais pronunciado que os efeitos protetores do HSCAS sobre os parâmetros de saúde dos animais. Não houve ação efetiva do adsorvente utilizado sobre quase nenhuma variável estudada, apenas para a redução das lesões histopatológicas em fígado, na redução da concentração de gama-glutamiltransferase (GGT), fósforo e aumento da contagem de hemáceas aos 21 dias de idade. Porém, influenciou positivamente a redução de resíduos hepáticos de aflatoxina G1 aos 21 dias e as concentrações de AFB1-lisina sérica aos 21 e aos 42 dias de idade. Estes dados são importantes porque permite concluir que, embora sintomatologicamente o HSCAS não tenha exercido função efetiva, molecularmente foi capaz de mostrar de eficácia sobre os alguns biomarcadores de aflatoxinas no organismo das aves

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Área de endemismo ou elemento biótico é uma região geográfica que apresenta congruência distribucional entre táxons. Não há um padrão aceito universalmente para delimitação de áreas de endemismo e, portanto, várias metodologias são usadas para sua identificação. Nesta dissertação, propomos uma comparação integrada de alguns métodos de análises de endemismo, com base em dados de distribuição hipotéticos e reais. Desta forma, este estudo tem como objetivos: (1) comparar a Análise de Parcimônia de endemicidade (PAE), a Análise de endemicidade (EA) e um novo método de codificação que propomos a Análise de Distribuições de Três-Itens (3ID), avaliando sua performance com base na capacidade de identificar padrões hipotéticos predefinidos de áreas de endemismo, representando áreas não conflitantes, aninhadas e sobrepostas; (2) analisar os padrões de distribuição de 214 espécies de hidrozoários bentônicos, pelágicos e benthopelágicos não-sifonóforos do Oceano Atlântico Sul Ocidental (OASO), usando três métodos biogeográficos para testar hipóteses anteriores de regionalização biogeográfica e avaliar o performance da PAE, a EA e a 3ID com conjuntos de dados reais. No capítulo 2, intitulado “Comparison of analysis of endemism procedures based on hypothetical distributions”, nós comparamos a PAE, EA e 3ID e encontramos que a 3ID tem o maior percentual de sucesso na recuperação de áreas de endemismo predefinidas. Adicionalmente, a EA é o único método capaz de recuperar padrões sobrepostos, porém também encontra padrões espúrios. Nós sugerimos, portanto, que a melhor opção para identificação de áreas de endemismo é o uso de 3ID e EA em conjunto. No capítulo 3, intitulado “Biogeographic patterns of benthic and planktonic hydrozoans from the southwestern Atlantic Ocean”, nós utilizamos dados distribucionais de 214 espécies de hidrozoários bentônicos, pelágicos e bentopelágicos não-sifonóforos do OASO (20°-60°S, 33°-75°W), os quais foram organizados em diferentes matrizes (concatenada, bentônica, pelágica, e bentopelágica) de acordo com as diferentes estratégias de ciclo de vida em Hydrozoa. Todas as matrizes foram analisadas por meio da PAE, EA e 3ID. Os resultados mostram três padrões biogeográficos gerais: (1) Tropical (2) Temperado-Quente, e (3) Temperado-Frio. Os padrões obtidos variam de acordo com o tipo de ciclo de vida em Hydrozoa, demonstrando a importância de analisar-se separadamente conjuntos de dados de espécies com diferentes estratégias de reprodução. Cada método teve um desempenho diferente e, portanto, concluímos que o uso de 3ID e EA em conjunto é a melhor opção para inferir padrões biogeográficos marinhos

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A inclusão de óleos vegetais na dieta de bovinos tem sido utilizada para aumentar a densidade energética da dieta, melhorar a eficiência alimentar, além de produzir carnes com a composição de ácidos graxos mais favorável à saúde humana. Objetivou-se estudar os efeitos da inclusão de óleos de soja, girassol e linhaça na dieta de bovinos, sobre o desempenho, características quantitativas de carcaça e qualitativas da carne, perfil de ácidos graxos, oxidação lipídica e formação de compostos oxidados do colesterol. Foram confinados 96 bovinos Nelore, castrados, com aproximadamente 380 kg ± 34 kg de peso inicial e idade média de 20 meses. As dietas foram compostas de 79% de concentrado e 21% de volumoso (silagem de milho) e incluídos os óleos de soja, girassol e linhaça. Os animais foram pesados e avaliadas as características de carcaça por ultrassonografia nos dias 0, 28, 56 e 81 de confinamento. Nos dias zero e 81 dias de confinamento foi coletado sangue dos bovinos para avaliação do LDL-colesterol, HDL-colesterol, VLDL-colesterol e triacilgliceróis. Ao final de 81 dias de confinamento, os animais foram abatidos e foi avaliado o pH (uma e 48 horas após o abate) e foram retiradas amostras do músculo longissimus. Foi avaliado a cor, força de cisalhamento (FC) e perdas por cocção (PPC) em carnes não maturadas e maturadas por 14 dias. Duas amostras do longissimus foram expostas por um e três dias em condições semelhantes ao varejo. Nas carnes expostas por um dia foi avaliado a cor e o pH. Nas amostras expostas por três dias foi avaliado além da cor e pH, o perfil de ácidos graxos, TBARS, colesterol e a presença do 7-cetocolesterol. Foi realizada ainda a análise sensorial e determinado a quantidade de lipídios totais das carnes. A estabilidade oxidativa dos óleos utilizados na dieta também foi avaliada. O experimento foi conduzido em delineamento de blocos casualizados, sendo o peso inicial o bloco. O desempenho e as características de carcaça avaliadas por ultrassonografia não foram influenciadas pelas fontes de óleo. Os tratamentos não influenciaram o peso de abate, o peso de carcaça quente, o pH da carcaça uma hora e 48 horas após o abate, o rendimento de carcaça, a cor, as PPC e a FC. O pH foi maior nas carnes maturadas por 14 dias (P=0,01), em relação àquelas sem maturação. As PPC e a FC foram menores (P=0,01) nas carnes maturadas por 14 dias. O óleo de linhaça apresentou menor estabilidade oxidativa seguidos do óleo de girassol e soja. As fontes de óleo não afetaram a concentração dos lipídios do plasma sanguíneo, no entanto, os níveis de VLDL, LDL, HDL, colesterol e triacilgliceróis foram maiores (P<0,01) no final do experimento em relação ao início. Não houve interação entre a espessura de gordura subcutânea (EGS) avaliada no abate e as dietas e efeito das fontes de óleo sobre os valores de TBARS, lipídios e colesterol. Não foi encontrado o 7-cetocolesterol nas carnes. O pH das carnes expostas por um e três dias sob condições de varejo, não foram influenciadas pela dieta nem pela interação da dieta e dos dias de exposição. No entanto, foi observado o efeito de tempo (P<0,01), as carnes expostas por três dias tiveram valores de pH maiores que as carnes expostas por um dia. A cor L*, a* e b* das carnes expostas em gôndola, sob condições de varejo não foi influenciado pela dieta, pelos dias de exposição e nem pela interação dos dias de exposição e dietas. Os ácidos graxos C18:1 n-9, C20:3 n-6 e C20:5 n-3 apresentaram interação entre a EGS e a dieta (P<0,05). O C18:1 cis 6 apresentou maiores concentrações (P<0,05) nas carnes provenientes dos animais alimentados com óleo de linhaça e soja, em comparação com as carnes provenientes da dieta controle. O C18:3 n-3 apresentou maiores concentrações nas carnes de animais alimentados com linhaça (P<0,05), em comparação com os demais tratamentos. O aroma e a textura da carne avaliados em análise sensorial realizada com consumidores não foram alterados pelos tratamentos. A carne dos animais alimentados com óleo de girassol resultou em maiores notas para o sabor (P<0,01), em relação à carne proveniente de animais alimentados com óleo de soja. As dietas controle e girassol resultaram em carnes mais suculentas e com maior aceitabilidade global (P<0,01), em relação ao tratamento soja. Independentemente do tipo de óleo utilizado na dieta dos animais, não houve influência no desempenho e nas características da carcaça. O óleo de linhaça proporcionou carnes com perfil de ácidos graxos mais favorável para a saúde humana, pois apresentou maiores proporções do ácido linolênico e relações ideais de n6:n3 (4,15). O uso de óleos vegetais na dieta, não prejudicou a aparência das carnes e não proporcionaram oxidação lipídica com a formação de compostos de colesterol oxidados nas carnes expostas sob condições de varejo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A eficiência e a racionalidade energética da iluminação pública têm relevante importância no sistema elétrico, porque contribui para diminuir a necessidade de investimentos na construção de novas fontes geradoras de energia elétrica e nos desperdícios energéticos. Apresenta-se como objetivo deste trabalho de pesquisa o desenvolvimento e aplicação do IDE (índice de desempenho energético), fundamentado no sistema de inferência nebulosa e indicadores de eficiência e racionalidade de uso da energia elétrica. A opção em utilizar a inferência nebulosa deve-se aos fatos de sua capacidade de reproduzir parte do raciocínio humano, e estabelecer relação entre a diversidade de indicadores envolvidos. Para a consecução do sistema de inferência nebulosa, foram definidas como variáveis de entrada: os indicadores de eficiência e racionalidade; o método de inferência foi baseado em regras produzidas por especialista em iluminação pública, e como saída um número real que caracteriza o IDE. Os indicadores de eficiência e racionalidade são divididos em duas classes: globais e específicos. Os indicadores globais são: FP (fator de potência), FC (fator de carga) e FD (fator de demanda). Os indicadores específicos são: FU (fator de utilização), ICA (consumo de energia por área iluminada), IE (intensidade energética) e IL (intensidade de iluminação natural). Para a aplicação deste trabalho, foi selecionada e caracterizada a iluminação pública da Cidade Universitária \"Armando de Salles Oliveira\" da Universidade de São Paulo. Sendo assim, o gestor do sistema de iluminação, a partir do índice desenvolvido neste trabalho, dispõe de condições para avaliar o uso da energia elétrica e, desta forma, elaborar e simular estratégias com o objetivo de economizá-la.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste trabalho foi avaliar o efeito da utilização de sucedâneo lácteo com alto conteúdo proteico de origem vegetal no desempenho e saúde de bezerros, e avaliar métodos de reidratação para o tratamento de diarreias. No primeiro estudo foram utilizados 33 bezerros da raça Holandês distribuídos nos tratamentos: 1) Alto volume e baixa proteína (AV/BP): 8 litros, 21,4% PB; 2) Alto volume e alta proteína (AV/AP): 8 litros, 23,7% PB e 3) Baixo volume e alta proteína (BV/AP): 6 litros, 23,7% PB. Os bezerros foram alojados em abrigos individuais, com livre acesso a água e concentrado. Não houve efeito dos tratamentos para o desempenho animal (P>0,05). Os tratamentos AV/BP e AV/AP resultaram em maior consumo de sucedâneo (P<0,05), mas não afetaram o consumo de concentrado nem o consumo total (P>0,05). O escore fecal foi maior (P>0,05) para animais nos tratamentos AV/AP e BV/AP. Os animais nos tratamentos AV/BP permaneceram maior número de dias em diarreia (P<0,05), em comparação aqueles aleitados com BV/AP, os quais tiveram menos dias com vida (P<0,05). A concentração de lactato foi maior (P<0,05) para animais nos tratamentos AV/BP e AV/AP enquanto a concentração de proteína total foi maior (P<0,05) nos tratamentos AV/BP e BV/AP. Sucedâneos com elevado conteúdo de proteína de origem vegetal afetam negativamente o desempenho de bezerros podendo levar o animal a morte. No segundo estudo foram comparados três soluções de hidratação oral quanto a sua eficiência em repor eletrólitos e água, além de manter o desempenho de bezerros. Foram utilizados 42 bezerros mestiços Holandês-Jersey, distribuídos nos tratamentos: 1) Soro comum, 2) Glutellac® e 3) Soro comum + Aminogut®. Os animais foram aleitados com 4 L/d de sucedâneo lácteo até a oitava semana de vida quando foram desaleitados de forma abrupta. As terapias de reidratação foram oferecidas quando os animais apresentavam escore fecal >= 3 na escala de 1 a 5. Não houve efeito das terapias de reidratação no desempenho nem em metabólitos sanguíneos (P>0,05). O consumo voluntário de água foi maior para os animais reidratados com Glutellac®, mas o consumo total maior para os animais reidratados com Soro comum. As concentrações de HCO3 e Na+ foram maiores para os animais no tratamento Glutellac® (P=0,088 e P=0,073 respectivamente), sendo a concentração de glicose também afetada pelo protocolo de hidratação (P<0,05). A concentração de HCO3 aumentou do primeiro para o segundo dia, a de K+ e glicose diminuíram do primeiro para o segundo dia, enquanto que o Beecf teve um comportamento variável segundo a terapia de reidratação utilizada. Houve efeito da interação tratamento x dia de avaliação apenas para a concentração de BUN (P<0,05). O pH, a concentração de Na+ e Beecf foram maiores em animais mais velhos, enquanto K+, hematócrito e hemoglobina, foram menores (P<0,05). O consumo voluntário de água foi maior em animais reidratados com Glutellac®, o que junto com a simplicidade de uso, representam as principais vantagens deste método de reidratação.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A irrigação quando bem manejada, pode minimizar os riscos econômicos da atividade sucroalcooleira, particularmente em safras com presença de instabilidade climática onde a restrição hídrica, promovida pela diminuição no volume de chuvas, pode reduzir a produtividade dos canaviais. Dentre as ferramentas disponíveis para a gestão eficiente da água na agricultura irrigada, a técnica de irrigação sob déficit pode se tornar uma escolha acertada para a cana-de-açúcar, desde que sejam identificadas as fases fenológicas e épocas de cultivo onde a limitação da oferta de água não implique em reduções antieconômicas no rendimento da cultura. Diante disso, a hipótese que norteia essa pesquisa, é a de que existe uma estratégia de irrigação sob déficit, que associada a uma variedade com características específicas, possibilite a expressão de indicadores de produtividade tão satisfatórios quanto os obtidos em condições de irrigação plena. Nessa linha, os objetivos da pesquisa envolveram o estudo da dinâmica foliar, acúmulo e particionamento de biomassa e ainda, índices de produtividade da água para biomassa, açúcar e etanol de 1ª e 2ª geração de oito variedade de cana-de-açúcar, submetidas a diferentes condições de disponibilidade hídrica no solo em dois ciclos de cultivo (cana-planta e cana-soca). A pesquisa foi realizada na Escola Superior de Agricultura \"Luiz de Queiroz\", em Piracicaba/SP, onde foram estudados os dois primeiros ciclos de cultivo da cana-de-açúcar, sendo estes abordados nesta tese como Experimento 1 (cana-planta) e Experimento 2 (cana-soca). O delineamento experimental adotado para ambos os ciclos foi o de blocos casualizados, com três blocos completos. Os tratamentos foram compostos por três fatores em esquema de parcelas sub-subdivididas. Estas parcelas foram formadas por duas plantas (touceiras) alocadas em um vaso com aproximadamente 330 litros de solo. No Experimento 1, foram estudados três fatores, sendo o primeiro e segundo com quatro níveis e o terceiro com oito (4x4x8), totalizando assim 128 tratamentos, sendo eles: quatro níveis de irrigação ao longo do ciclo (125, 100, 75 e 50% da ETc); oito variedades comerciais de cana-de-açúcar e quatro procedimentos de maturação, impostos por meio de variações na intensidade do déficit hídrico aplicado. Para o Experimento 2, substitui-se o fator Maturação por Épocas de Corte, o qual consistiu em colheitas de um quarto do experimento a cada 90 dias. Os resultados encontrados apontaram que a área foliar responde positivamente a maior disponibilidade hídrica no solo, tendo sido verificado uma relação proporcional entre estes. Quanto ao acúmulo de biomassa, verificou-se que para as oito variedades estudadas houve incremento de biomassa a medida em que se aumentou o volume de água disponibilizado às variedades. No tocante ao particionamento, as folhas foram os drenos principais de fotoassimilados da planta até os 100 dias de cultivo, sendo que após este período, os colmos ocuparam o lugar de dreno preferencial. Os indicadores de produtividade da água apresentaram diferenças significativas para o fator lâmina, o que indica a existência de cultivares de cana-de-açúcar mais eficientes no uso da água. Por fim, observou-se que a produtividade da água para etanol total apresentou valores expressivos, com média para essa variável igual a 1,81 L m-3, o que denota o potencial de rendimento de etanol (1G + 2G) a partir da cana-de-açúcar quando é adotado o aproveitamento integral das plantas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho apresenta um procedimento simples e robusto para avaliação e análise do desempenho de instalações propulsoras de embarcações de pesca operando no Estado do Espírito Santo. O objetivo é verificar se as embarcações estão operando com baixa eficiência propulsiva, portanto, com consumo de combustível maior do que o desejável, e identificar possíveis ações de melhoria desta eficiência que poderiam ser implementadas com baixo custo. Tendo em vista as condições artesanais da construção e operação das embarcações de pesca no Espírito Santo, o procedimento foi desenvolvido de forma a poder ser aplicado com relativa facilidade pelas pessoas envolvidas na atividade pesqueira artesanal neste Estado. O procedimento envolve o levantamento de informações sobre a geometria do casco, as características da instalação propulsora existente e sobre alguns aspectos do desempenho das embarcações. Para este levantamento são propostos métodos e técnicas suficientemente simples para que possam ser facilmente aplicadas nos estaleiros. Com base nestes dados levantados implementou-se no procedimento proposto diversos algoritmos que permitem determinar o coeficiente propulsivo das embarcações de pesca e a perda de energia útil que ocorre tanto no motor, por conta de condições inadequadas de operação, quanto na transmissão desta energia para o hélice. Para a validação dos métodos e técnicas envolvidos neste procedimento e dos resultados fornecidos por ele, o mesmo foi aplicado em alguns cascos de embarcações de pesca disponíveis em estaleiros visitados no Estado. Para uma destas embarcações o procedimento foi aplicado em sua totalidade, permitindo identificar a baixa eficiência da instalação propulsora e algumas das possíveis causas que provocam a perda de energia útil no sistema. Finalmente, com base nesse exemplo de aplicação, um estudo de possíveis melhorias na instalação propulsora é apresentado ao final do trabalho.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste trabalho é analisar o impacto dos Sistemas de Gestão Integrados (SGI) no desempenho organizacional sob a óptica do Triple Bottom Line (TBL), verificando se esta implementação auxilia a empresa a se tornar mais sustentável. A abordagem multi-método utilizada está dividida em três partes. A primeira compreende uma revisão sistemática da literatura, tendo como base a abordagem bibliométrica. A base de dados escolhida para a seleção dos artigos que compõem a amostra foi a ISI Web of Knowledge (Web of Science). As análises conduzidas sugerem lacunas na literatura a serem pesquisadas de modo a relacionar a integração dos sistemas de gestão como meio para as organizações tornarem-se mais sustentáveis, auxiliando assim na elaboração de um modelo teórico e das hipóteses de pesquisa. Os resultados parciais obtidos ressaltam a lacuna na literatura de estudos nessa área, principalmente que contemplem a dimensão social do Triple Bottom Line. Lacunas na literatura foram identificadas também no que se refere à análise do impacto da adoção dessas abordagens normativas no desempenho organizacional. A segunda etapa da metodologia é composta por estudos de casos múltiplos em empresas de diferentes setores e que tenham implantado sistemas de gestão de maneira integrada. Os resultados obtidos mostram que a certificação auxilia no desenvolvimento de ações sustentáveis, resultando em impactos econômicos, ambientais e sociais positivos. Nesta etapa, testou-se o modelo e as hipóteses levantadas na abordagem bibliométrica. A terceira etapa da metodologia é composta por análises estatísticas de dados secundários extraídos da revista Exame ?Maiores e Melhores\'. Os dados do ano de 2014 das empresas foram tratados por meio do software MINITAB 17 ®. Por meio do teste de mediana de mood, as amostras foram testadas e apresentaram diferenças estatisticamente significativas para o desempenho das empresas em diferentes setores. De maneira geral, as empresas com SGI apresentam melhor desempenho econômico do que as demais. Com a mesma base de dados, utilizando o modelo de equações estruturais e o software Smart PLS 2.0, criou-se um diagrama de caminhos analisando os constructos (SGI) com variáveis de desempenho (Endividamento, Lucratividade, Patrimônio, Crescimento e Retorno). O modelo de equações estruturais testado apresentou força para a relação entre SGI com Endividamento, Lucratividade, Patrimônio e Crescimento. As diferentes metodologias apresentadas contribuíram para responder a hipótese e afirmar com base na amostra deste trabalho que o SGI leva as empresas a terem melhor desempenho econômico, ambiental e social (baseado no TBL).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tese propõe um modelo de regeneração de energia metroviária, baseado no controle de paradas e partidas do trem ao longo de sua viagem, com o aproveitamento da energia proveniente da frenagem regenerativa no sistema de tração. O objetivo é otimizar o consumo de energia, promover maior eficiência, na perspectiva de uma gestão sustentável. Aplicando o Algoritmo Genético (GA) para obter a melhor configuração de tráfego dos trens, a pesquisa desenvolve e testa o Algoritmo de Controle de Tração para Regeneração de Energia Metroviária (ACTREM), usando a Linguagem de programação C++. Para analisar o desempenho do algoritmo de controle ACTREM no aumento da eficiência energética, foram realizadas quinze simulações da aplicação do ACTREM na linha 4 - Amarela do metrô da cidade de São Paulo. Essas simulações demonstraram a eficiência do ACTREM para gerar, automaticamente, os diagramas horários otimizados para uma economia de energia nos sistemas metroviários, levando em consideração as restrições operacionais do sistema, como capacidade máxima de cada trem, tempo total de espera, tempo total de viagem e intervalo entre trens. Os resultados mostram que o algoritmo proposto pode economizar 9,5% da energia e não provocar impactos relevantes na capacidade de transporte de passageiros do sistema. Ainda sugerem possíveis continuidades de estudos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As cooperativas de crédito são instituições financeiras que têm como finalidade principal a prestação de serviços bancários e de intermediação financeira voltando-se para a geração de benefícios ao cooperado, através de benefícios econômicos encontrados sob a forma cooperativada. Considerando o objetivo destas organizações, o presente trabalho teve por objetivo avaliar a eficiência das mesmas considerando duas vertentes: 1) a atividade de intermediação financeira; e 2) a atividade de prestação de serviços bancários, a partir de variáveis contábeis. A técnica utilizada para a avaliação da eficiência foi a Análise Envoltória de Dados e foram analisados os determinantes da eficiência por meio de regressões do tipo Tobit. A amostra é composta por 315 cooperativas singulares listadas na base de dados do Banco Central do Brasil e foram utilizados os dados dos balancetes anuais e semestrais (soma dos semestres para as contas de resultado de cada ano) apresentados para período de 2007 a 2014. Os resultados indicaram baixa eficiência das cooperativas na prestação de serviços bancários, com 73% da amostra apresentando ineficiência ao longo de todos os anos do período em análise. Na atividade de intermediação financeira 20 cooperativas foram eficientes ao longo do período completo, com as demais apresentando graus de ineficiência abaixo de 16% em todos os anos. Quanto aos determinantes da eficiência, verificou-se como principais fatores na atividade de intermediação financeira a Imobilização, a Insolvência, o Descasamento Passivo e as Despesas Administrativas, enquanto na atividade de prestação de serviços os principais determinantes foram a Captação por Floating e as Despesas Administrativas. Os resultados da eficiência na intermediação financeira indicaram baixos graus de ineficiência, enquanto os altos graus de ineficiência na prestação de serviços bancários alertaram para a pouca importância dada ao fornecimentos destes serviços e para a importância de se utilizar dois modelos distintos para a avaliação da eficiência em cooperativas de crédito, dado o comportamento desvinculado entre as duas atividades avaliadas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Para que a sustentabilidade seja gerenciada e praticada de maneira efetiva, ela deve ser mensurada, utilizando-se de métodos de avaliação da sustentabilidade. Estão disponíveis diferentes métodos de avaliação, que geralmente reduzem o resultado desse levantamento à indicadores de desempenho ambiental, econômico e social (POPEA; ANNANDALE; MORISON-SAUNDERSB, 2004). Uma das denominações mais bem aceitas e difundidas para a conjunção da dimensão ambiental e econômica é conhecida por avaliação de eco eficiência (AEE). Eco eficiência é o \"aspecto da sustentabilidade que relaciona o desempenho ambiental de um sistema de produto ao valor do sistema de produto\" (ISO, 2012). Estão disponíveis diferentes métodos de AEE, porém sem evidência das suas semelhanças e particularidades e como essas características influenciam na escolha do método mais adequado de AEE em relação às potenciais aplicações O objetivo desta pesquisa é, portanto, analisar e indicar os tipos de métodos de avaliação de eco eficiência (AEE) mais adequados para ações gerenciais nas quais caibam tais abordagens. Foram selecionados onze métodos de AEE, a partir do estabelecimento de critérios de caracterização desses métodos, a saber: BASF, Bayer, EcoWater, Hahn et al., Kuosmanen e Kortelainen, MIPS, NRTEE, UN ESCAP, UN, TU Delft, e WBCSD. Identificaram-se, ainda, quatro potenciais aplicações: (i) Monitoramento de processo com vistas à melhoria contínua; (ii) Selecção e classificação de produtos; (iii) Atendimento a requisitos legais e outros requisitos; e, (iv) Marketing, rotulagem de produtos e comunicação ambiental. A partir dos elementos metodológicos estabelecidos pela norma ISSO 14045 (2012) e do conhecimento obtido dos métodos de AEE, determinaram-se quatro requisitos pelos quais os métodos e os potenciais aplicações foram avaliados: (i) Tipo de indicador de desempenho ambiental; (ii) Tipo de indicador de valor de sistema de produto; (iii) Abrangência de aplicação; e, (iv) Tipo de indicador de eco eficiência. Aplicando-se estes requisitos nos métodos de AEE e nos potenciais usos, concluiu-se que quanto à aplicações em termos de monitoramento de processos com vistas à melhoria continua os métodos de AEE recomendados foram Bayer, NRTEE, WBCSD e UN. Para situações de seleção e classificação de produtos os métodos BASF, EcoWater, Kuosmanen e Kortelainen, MIPS, Hahn et al., TU Delft, UN ESCAP e UN demonstraram ter boa aderência. No que se refere a usos voltados ao atendimento de requisitos legais e/ou de outras naturezas, os métodos NRTEE, WBCSD e UN são os mais indicados. Em aplicações de marketing, rotulagem e comunicação foram indicados os métodos BASF, EcoWater e MIPS. Finalmente, concluiu-se que, para a escolha adequada da metodologia para uma AEE, conhecimento prévio das características de cada abordagem é necessário.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The increasing economic competition drives the industry to implement tools that improve their processes efficiencies. The process automation is one of these tools, and the Real Time Optimization (RTO) is an automation methodology that considers economic aspects to update the process control in accordance with market prices and disturbances. Basically, RTO uses a steady-state phenomenological model to predict the process behavior, and then, optimizes an economic objective function subject to this model. Although largely implemented in industry, there is not a general agreement about the benefits of implementing RTO due to some limitations discussed in the present work: structural plant/model mismatch, identifiability issues and low frequency of set points update. Some alternative RTO approaches have been proposed in literature to handle the problem of structural plant/model mismatch. However, there is not a sensible comparison evaluating the scope and limitations of these RTO approaches under different aspects. For this reason, the classical two-step method is compared to more recently derivative-based methods (Modifier Adaptation, Integrated System Optimization and Parameter estimation, and Sufficient Conditions of Feasibility and Optimality) using a Monte Carlo methodology. The results of this comparison show that the classical RTO method is consistent, providing a model flexible enough to represent the process topology, a parameter estimation method appropriate to handle measurement noise characteristics and a method to improve the sample information quality. At each iteration, the RTO methodology updates some key parameter of the model, where it is possible to observe identifiability issues caused by lack of measurements and measurement noise, resulting in bad prediction ability. Therefore, four different parameter estimation approaches (Rotational Discrimination, Automatic Selection and Parameter estimation, Reparametrization via Differential Geometry and classical nonlinear Least Square) are evaluated with respect to their prediction accuracy, robustness and speed. The results show that the Rotational Discrimination method is the most suitable to be implemented in a RTO framework, since it requires less a priori information, it is simple to be implemented and avoid the overfitting caused by the Least Square method. The third RTO drawback discussed in the present thesis is the low frequency of set points update, this problem increases the period in which the process operates at suboptimum conditions. An alternative to handle this problem is proposed in this thesis, by integrating the classic RTO and Self-Optimizing control (SOC) using a new Model Predictive Control strategy. The new approach demonstrates that it is possible to reduce the problem of low frequency of set points updates, improving the economic performance. Finally, the practical aspects of the RTO implementation are carried out in an industrial case study, a Vapor Recompression Distillation (VRD) process located in Paulínea refinery from Petrobras. The conclusions of this study suggest that the model parameters are successfully estimated by the Rotational Discrimination method; the RTO is able to improve the process profit in about 3%, equivalent to 2 million dollars per year; and the integration of SOC and RTO may be an interesting control alternative for the VRD process.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Em Bioinformática são frequentes problemas cujo tratamento necessita de considerável poder de processamento/cálculo e/ou grande capacidade de armazenamento de dados e elevada largura de banda no acesso aos mesmos (de forma não comprometer a eficiência do seu processamento). Um exemplo deste tipo de problemas é a busca de regiões de similaridade em sequências de amino-ácidos de proteínas, ou em sequências de nucleótidos de DNA, por comparação com uma dada sequência fornecida (query sequence). Neste âmbito, a ferramenta computacional porventura mais conhecida e usada é o BLAST (Basic Local Alignment Search Tool) [1]. Donde, qualquer incremento no desempenho desta ferramenta tem impacto considerável (desde logo positivo) na atividade de quem a utiliza regularmente (seja para investigação, seja para fins comerciais). Precisamente, desde que o BLAST foi inicialmente introduzido, foram surgindo diversas versões, com desempenho melhorado, nomeadamente através da aplicação de técnicas de paralelização às várias fases do algoritmo (e. g., partição e distribuição das bases de dados a pesquisar, segmentação das queries, etc. ), capazes de tirar partido de diferentes ambientes computacionais de execução paralela, como: máquinas multi-core (BLAST+ 2), clusters de nós multi-core (mpiBLAST3J e, mais recentemente, co-processadores aceleradores como GPUs" ou FPGAs. É também possível usar as ferramentas da família BLAST através de um interface/sítio WEB5, que permite, de forma expedita, a pesquisa de uma variedade de bases de dados conhecidas (e em permanente atualização), com tempos de resposta suficientemente pequenos para a maioria dos utilizadores, graças aos recursos computacionais de elevado desempenho que sustentam o seu backend. Ainda assim, esta forma de utilização do BLAST poderá não ser a melhor opção em algumas situações, como por exemplo quando as bases de dados a pesquisar ainda não são de domínio público, ou, sendo-o, não estão disponíveis no referido sitio WEB. Adicionalmente, a utilização do referido sitio como ferramenta de trabalho regular pressupõe a sua disponibilidade permanente (dependente de terceiros) e uma largura de banda de qualidade suficiente, do lado do cliente, para uma interacção eficiente com o mesmo. Por estas razões, poderá ter interesse (ou ser mesmo necessário) implantar uma infra-estrutura BLAST local, capaz de albergar as bases de dados pertinentes e de suportar a sua pesquisa da forma mais eficiente possível, tudo isto levando em conta eventuais constrangimentos financeiros que limitam o tipo de hardware usado na implementação dessa infra-estrutura. Neste contexto, foi realizado um estudo comparativo de diversas versões do BLAST, numa infra-estrutura de computação paralela do IPB, baseada em componentes commodity: um cluster de 8 nós (virtuais, sob VMWare ESXi) de computação (com CPU Í7-4790K 4GHz, 32GB RAM e 128GB SSD) e um nó dotado de uma GPU (CPU Í7-2600 3.8GHz, 32GB RAM, 128 GB SSD, 1 TB HD, NVIDIA GTX 580). Assim, o foco principal incidiu na avaliação do desempenho do BLAST original e do mpiBLAST, dado que são fornecidos de base na distribuição Linux em que assenta o cluster [6]. Complementarmente, avaliou-se também o BLAST+ e o gpuBLAST no nó dotado de GPU. A avaliação contemplou diversas configurações de recursos, incluindo diferentes números de nós utilizados e diferentes plataformas de armazenamento das bases de dados (HD, SSD, NFS). As bases de dados pesquisadas correspondem a um subconjunto representativo das disponíveis no sitio WEB do BLAST, cobrindo uma variedade de dimensões (desde algumas dezenas de MBytes, até à centena de GBytes) e contendo quer sequências de amino-ácidos (env_nr e nr), quer de nucleótidos (drosohp. nt, env_nt, mito. nt, nt e patnt). Para as pesquisas foram 'usadas sequências arbitrárias de 568 letras em formato FASTA, e adoptadas as opções por omissão dos vários aplicativos BLAST. Salvo menção em contrário, os tempos de execução considerados nas comparações e no cálculo de speedups são relativos à primeira execução de uma pesquisa, não sendo assim beneficiados por qualquer efeito de cache; esta opção assume um cenário real em que não é habitual que uma mesma query seja executada várias vezes seguidas (embora possa ser re-executada, mais tarde). As principais conclusões do estudo comparativo realizado foram as seguintes: - e necessário acautelar, à priori, recursos de armazenamento com capacidade suficiente para albergar as bases de dados nas suas várias versões (originais/compactadas, descompactadas e formatadas); no nosso cenário de teste a coexistência de todas estas versões consumiu 600GBytes; - o tempo de preparação (formataçâo) das bases de dados para posterior pesquisa pode ser considerável; no nosso cenário experimental, a formatação das bases de dados mais pesadas (nr, env_nt e nt) demorou entre 30m a 40m (para o BLAST), e entre 45m a 55m (para o mpiBLAST); - embora economicamente mais onerosos, a utilização de discos de estado sólido, em alternativa a discos rígidos tradicionais, permite melhorar o tempo da formatação das bases de dados; no entanto, os benefícios registados (à volta de 9%) ficam bastante aquém do inicialmente esperado; - o tempo de execução do BLAST é fortemente penalizado quando as bases de dados são acedidas através da rede, via NFS; neste caso, nem sequer compensa usar vários cores; quando as bases de dados são locais e estão em SSD, o tempo de execução melhora bastante, em especial com a utilização de vários cores; neste caso, com 4 cores, o speedup chega a atingir 3.5 (sendo o ideal 4) para a pesquisa de BDs de proteínas, mas não passa de 1.8 para a pesquisa de BDs de nucleótidos; - o tempo de execução do mpiBLAST é muito prejudicado quando os fragmentos das bases de dados ainda não se encontram nos nós do cluster, tendo que ser distribuídos previamente à pesquisa propriamente dita; após a distribuição, a repetição das mesmas queries beneficia de speedups de 14 a 70; porém, como a mesma base de dados poderá ser usada para responder a diferentes queries, então não é necessário repetir a mesma query para amortizar o esforço de distribuição; - no cenário de teste, a utilização do mpiBLAST com 32+2 cores, face ao BLAST com 4 cores, traduz-se em speedups que, conforme a base de dados pesquisada (e previamente distribuída), variam entre 2 a 5, valores aquém do máximo teórico de 6.5 (34/4), mas ainda assim demonstradores de que, havendo essa possibilidade, compensa realizar as pesquisas em cluster; explorar vários cores) e com o gpuBLAST, realizada no nó com GPU (representativo de uma workstation típica), permite aferir qual a melhor opção no caso de não serem possíveis pesquisas em cluster; as observações realizadas indicam que não há diferenças significativas entre o BLAST e o BLAST+; adicionalmente, o desempenho do gpuBLAST foi sempre pior (aproximadmente em 50%) que o do BLAST e BLAST+, o que pode encontrar explicação na longevidade do modelo da GPU usada; - finalmente, a comparação da melhor opção no nosso cenário de teste, representada pelo uso do mpiBLAST, com o recurso a pesquisa online, no site do BLAST5, revela que o mpiBLAST apresenta um desempenho bastante competitivo com o BLAST online, chegando a ser claramente superior se se considerarem os tempos do mpiBLAST tirando partido de efeitos de cache; esta assunção acaba por se justa, Já que BLAST online também rentabiliza o mesmo tipo de efeitos; no entanto, com tempos de pequisa tão reduzidos (< 30s), só é defensável a utilização do mpiBLAST numa infra-estrutura local se o objetivo for a pesquisa de Bds não pesquisáveis via BLAS+ online.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A partir de 2012, o Governo Estadual do Rio de Janeiro através da Secretaria de Estado de Saúde passou a adotar o modelo de gestão com base em Organizações Sociais de Saúde (OSS), a fim de melhorar os serviços prestados pelas Unidades de Saúde sob sua responsabilidade, ou seja, ampliar a cobertura de atendimento, melhorar o desempenho e reduzir custos. Desde junho de 2014, 80% das Unidades Estaduais de Saúde já eram gerenciadas por Organizações Sociais. O modelo de OSS foi criado com o intuito de publicizar serviços de relevância pública, até então prestados pelo Estado, mas que passaram a ser considerados não exclusivos do mesmo, a fim de alcançar maior eficiência. Nesse contexto, a presente pesquisa tem o objetivo de analisar o desempenho dos serviços prestados através das OSS contratualizadas pelo Estado do Rio de Janeiro (ERJ). Para tanto foi realizada uma contextualização sobre o processo de implementação e acompanhamento dos contratos de gestão na Secretaria de Estado de Saúde do Rio de Janeiro, bem como uma pesquisa documental com o levantamento dos indicadores quantitativos e qualitativos pactuados e os recursos de custeio utilizados, resultando na elaboração de ficha técnica de todos os contratos de gestão. As análises tiveram como foco a evolução dos indicadores quantitativos dos contratos de gestão no ano de 2012 até o 1º semestre de 2015, bem como o desempenho medido pela correlação de resultados de produtividade obtidos com base em indicadores quantitativos. Os resultados encontrados mostram que 80 % dos contratos de gestão de Hospitais Emergência, 75 % dos Hospitais Especializados e 92 % das Unidades de Pronto Atendimento atingem ou superam o grau de desempenho esperado pela SES quanto ao cumprimento do indicador Produção Hospitalar no ano de 2015, com ampliação da oferta de serviços especializados através das OS. Já para o cumprimento do indicador Produção Serviços Auxiliares de Diagnose e Terapia os resultados são 60 % para Hospitais Emergência e 25 % para Hospitais Especializados. Uma das conclusões possíveis e que cabe à SES/RJ, aprimorar sua função regulatória com a efetiva utilização da serie histórica de informações para a construção de indicadores compatíveis com o perfil das suas Unidades. Como sugestão para futuros estudos, aponta-se a possibilidade de realizar a mensuração da eficiência dos contratos de gestão do ERJ através da técnica envoltória de dados que correlaciona um número maior de indicadores qualitativos para verificação da eficiência.