82 resultados para Fluxos Ópticos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O uso da mecânica de fluidos computacional no estudo de processos envolvendo o escoamento de fluidos poliméricos está cada vez mais presente nas indústrias de transformação de polímeros. Um código computacional voltado a esta função, para que possa ser aplicado com sucesso, deve levar a predições mais próximas possível da realidade (modelagem), de uma forma relativamente rápida e eficiente (simulação). Em relação à etapa de modelagem, o ponto chave é a seleção de uma equação constitutiva que represente bem as características reológicas do fluido, dentre as diversas opções existentes. Para a etapa de simulação, ou seja, a resolução numérica das equações do modelo, existem diversas metodologias encontradas na literatura, cada qual com suas vantagens e desvantagens. Neste tópico se enquadra o trabalho em questão, que propõe uma nova metodologia para a resolução das equações governantes do escoamento de fluidos viscoelásticos. Esta se baseia no método dos volumes finitos, usando o arranjo co-localizado para as variáveis do problema, e na utilização de aproximações de alta ordem para os fluxos médios lineares e não-lineares e para outros termos não lineares que surgem da discretização das equações constitutivas. Nesta metodologia, trabalha-se com os valores médios das variáveis nos volumes durante todo o processo de resolução, sendo que os valores pontuais são obtidos ao final do procedimento via deconvolução. A solução do sistema de equações não lineares, resultante da discretização das equações, é feita de forma simultânea, usando o método de Newton São mostrados então, resultados da aplicação da metodologia proposta em problemas envolvendo escoamentos de fluidos newtonianos e fluidos viscoelásticos. Para descrever o comportamento reológico destes últimos, são usadas duas equações constitutivas, que são o modelo de Oldroyd-B e o modelo de Phan-Thien-Tanner Simplificado. Por estes resultados pode-se ver que a metodologia é muito promissora, apresentando algumas vantagens frente às metodologias convencionais em volumes finitos. A implementação atual da metodologia desenvolvida está restrita a malhas uniformes e, consequentemente, soluções para problemas com geometrias complexas, que necessitam de refinamento localizado da malha, foram obtidas somente para baixos números de Weissenberg, devido a limitação do custo computacional. Esta restrição pode ser contornada, tornando o seu uso competitivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O grande objetivo em finanças para os gestores das empresas é o de proporcionar aumento de valor aos acionistas. Para que isso possa ser efetivamente implementado, é necessário que o investimento proporcione para o acionista um retorno superior ao custo de oportunidade do seu capital, contemplando o risco do investimento, mensurado através de um modelo de avaliação. Este trabalho apresenta os principais conceitos de avaliação de ativos, destacando a criação de valor como a medida mais importante do desempenho da empresa. O fluxo de caixa descontado é abordado como o método que melhor resume o conceito de criação de valor, destacando-se o fluxo de caixa do acionista e o fluxo de caixa da empresa. Também são apresentados a forma de apuração dos fluxos de caixa, a estimativa das taxas de crescimento, algumas situações especiais onde o fluxo de caixa descontado necessita de adaptações e outros métodos alternativos de análise de investimentos, sendo que nenhum deles é capaz de superar a técnica do valor presente líquido – VPL, pois o método do VPL utiliza todos os fluxos de caixa de um projeto, descontando-os corretamente de acordo com o custo de oportunidade do capital O estudo mostra, ainda, uma rápida explanação das principais técnicas de mensuração do risco e do retorno exigido pelos investidores ou proprietários segundo a teoria de valor, como o CAPM (Capital Asset Price Model), o APM (Arbitrage Pricing Model) e o Multifatorial, destacando-se entre eles a dificuldade de mensuração do custo do capital próprio em empresas de capital fechado no Brasil, para a devida apuração da taxa de desconto. A metodologia proposta é aplicada na avaliação do investimento, em um novo ponto de venda, realizado por uma pequena empresa familiar do setor supermercadista. Dessa forma, ao final do estudo, propõe-se a utilização de uma ferramenta gerencial, baseada no fluxo de caixa descontado, para avaliação de futuros investimentos da empresa, buscando-se assim a maximização de valor para o acionista ou proprietário.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação parte da análise dos fluxos migratórios que vêm ocorrendo entre o município de Salvador do Sul, no Rio Grande do Sul, e os municípios do Oeste de Santa Catarina, mais especificamente Itapiranga, Palmitos, São Miguel d’Oeste, São Carlos e Tunápolis, no período de 1950 – 2000. O primeiro fluxo migratório ocorrente entre 1950 e 1970 teve como agente potencializador o “acesso a terra”. Jovens casais gaúchos emigraram rumo à fronteira agrícola do Oeste Catarinense, onde se ofereciam terras a preços baixos, constituindo pequenas propriedades familiares. No segundo fluxo, os filhos e netos desses primeiros migrantes que se estabeleceram no Oeste Catarinense migram de volta ao Rio Grande do Sul, na região dos municípios do Vale do Caí, entre os quais desponta Salvador do Sul. A motivação que leva a essa migração é a busca de emprego assalariado sem exigência de mão-deobra especializada, aliada à rede de parentesco existente no município.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A separação/remoção de óleos emulsificados em água foi estudada, utilizando um novo processo baseado nas técnicas de floculação pneumática em linha, seguida de separação por flotação (denominado de processo de Floculação-Flotação ou processo FF). A primeira etapa do estudo foi o projeto, construção e montagem de um sistema piloto de geração de emulsões, floculação pneumática em linha e de separação por flotação, instalado no Laboratório de Águas Oleosas, na Refinaria Alberto Pasqualini (REFAP S.A.), Canoas-RS. Após esta etapa, foram realizados estudos utilizando água oleosa sintética, visando caracterizar e otimizar os principais parâmetros da floculação pneumática, fase determinante no processo FF. Os resultados mostraram que a melhor eficiência, 93 %, foi obtida quando da utilização de um floculador tipo serpentina de 20 elementos de mistura (MS-20), uma concentração de 2 mg/L de floculante (PVA) e uma vazão de ar de 40 L/min. Esta eficiência correspondeu a uma concentração residual de óleo na água tratada de 10 mg/L. Foi demonstrado ainda que, independentemente do tipo de floculador e da vazão de água oleosa, a remoção de óleo é determinada pela perda de carga resultante da injeção de ar antes do floculador. No estudo do tratamento do efluente oleoso proveniente da saída do separador PPI (REFAP S.A.), os melhores resultados foram obtidos utilizando-se o Mafloc-489 (floculante catiônico de alto peso molecular), em uma concentração de 6 mg/L, proporcionando uma concentração residual de óleo no efluente tratado de 8 mg/L (91 % de remoção) O processo de Floculação-Flotação estudado, demonstrou ser também eficiente na remoção de outros poluentes do efluente, além do óleo. Nas melhores condições operacionais, foram removidos 87 % da turbidez, 90 % dos sólidos suspensos, 91 % do óleo e 56 % da demanda química de oxigênio (DQO), proporcionando, em apenas uma etapa de tratamento, um efluente tratado com níveis de poluentes analisados abaixo do padrão exigido pelo órgão ambiental Estadual (FEPAM). Os principais mecanismos envolvidos no processo FF estão relacionados com a irreversibilidade na adsorção do polímero sob turbulência e a conformação deste na interface óleo/água/ar. O alto grau de cisalhamento, resultado dos fluxos volumétricos de ar e água, e a maior “insolubilidade” (precipitação) do polímero na interface ar/água, facilitam a geração de grandes flocos aerados de estrutura fibrosa. Esses resultados e outros obtidos com diferentes efluentes reais e suspensões sólidas mostraram que o processo FF possui um elevado potencial como nova operação unitária de separação líquido1/líquido2, sólido/líquido ou sólido/líquido1/líquido2. As principais vantagens do FF são os baixos custos envolvidos (investimento e operacional), a simplicidade dos elementos construtivos (compactos), a confiabilidade nos resultados e sua elevada capacidade de tratamento (> 60 m3/m2/h).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o objetivo de melhor se adaptar ao ambiente de competição (informacional) global, que se estrutura e se impõe a partir de uma ´divisão inter-regional do trabalho´, as regiões tendem a desenvolver estratégias de planejamento regional e urbano com o objetivo de impulsionar o parque produtivo informacional local. Intentam desta maneira compôr mecanismos locais que permitam a formação de um Sistema Local de Inovação, baseado na interação sinergética entre os atores sociais. Esta articulação regional trabalha em diversas esferas espaciais (e consequentemente temporais), uma vez que a fluida lógica estrutural do sistema informacional global (´espaço de fluxos´) difere dos mecanismos locais de articulação, pois estes estão ligados teluricamente às tradições culturais (´espaço de lugares´). Segundo Castells, o ´espaço de fluxos´ é definido como sendo um sistema de alcance global estruturado em redes (nós e eixos) permeadas por informações que circulam (eletronicamente) instantaneamente. Porém a dinâmica do sistema é gerada a partir do historicamente construído ´espaço de lugares´(local), articulado reflexivamente a partir da ação de três instituições internas (reconhecidas pelo modelo da Hélice Tripla como: universidades, empresas e governo). De maneira geral, podemos observar que a universidade, enquanto instituição empreendedora e voltada para a produção de inovações informacionais, passa a exercer importante função catalisadora deste processo de organização das forças produtivas regionais (a nível de ´espaço de lugares´) Reconhecendo que há uma tendência à incompatibilidade entre as esferas espaciais de articulação citadas (embora elas tenham uma existência ativa), esta dissertação irá sugerir a pertinência da observação de uma articulação espacial híbrida, tanto global-informacional quanto local-cultural (denominada ´espaço híbrido´), atuando estrategicamente na construção dos Sistemas Locais de Inovação. Desta maneira, com a finalidade de estruturar espacialmente os Sistemas Locais de Inovação, uma das principais estratégias que o planejador regional dispõe é a da formação e potencialização de clusters espaciais de inovação, na forma de programas de criação de pólos e/ou parques tecnológicos (e/ou tecnópoles). Tendo como objetivo a criação de um processo produtivo local sinergético e informacional, são projetadas e aplicadas políticas industriais e urbanas de longo prazo que buscam retirar o máximo possível da proximidade espacial existente e/ou induzida. Como estudo de caso, serão analisados projetos intra-urbanos atuantes nas áreas das Ciências da Vida. Inicialmente serão apresentados quatro casos internacionais, para por fim serem comparados ao projeto Porto Alegre Tecnópole (e em especial ao projeto Cidade Saúde de Porto Alegre).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A cardiomioplastia (CDM) tem sido proposta com uma alternativa de tratamento cirúrgico para pacientes em estado avançado de cardiomiopatia dilatada e isquêmica. Os resultados clínicos e experimentais demonstram que este procedimento atenua o processo de remodelamento ventricular, através da compressão dinâmica ou passiva do miocárdio pelo grande dorsal (GD). Além disso, estudos observaram formação de vasos colaterais do GD para o coração após a CDM. O infarto do miocárdio (IM) induz disfunção e remodelamento ventricular e tem sido muito utilizado na literatura como modelo experimental de isquemia miocárdica. A aplicação de fatores angiogênicos diretamente no miocárdio isquêmico tem mostrado resultados positivos na estimulação da formação de colaterais. O objetivo do presente estudo foi avaliar os efeitos da CDM associada ao tratamento com VEGF165 na função ventricular e no desenvolvimento de fluxo colateral extramiocárdico em ratos infartados. Foram utilizados ratos machos Wistar (n=57, 220-250g) divididos em grupos infartados e controles. As alterações temporais induzidas pelo IM (ligadura da artéria coronária esquerda) foram avaliadas aos 14 (IM-14) e aos 56 (IM-56) dias pós IM sendo comparadas com seus respectivos controles (C-14 e C-56). Animais controles (C-CDM) e infartados (IM-CDM) foram submetidos à CDM passiva (sem estimulação do GD) após 14 dias de IM e avaliados aos 56 dias. Ratos controles foram submetidos à cirurgia fictícia de IM e de CDM (S-IMCDM) e ratos infartados à cirurgia fictícia de CDM (IM-SCDM) a fim de verificar eventuais alterações induzidas pelos procedimentos cirúrgicos. Um grupo de ratos infartados recebeu a administração de uma dose de 25µg de VEGF165 na artéria principal do GD imediatamente antes da CDM (14 dias de IM) e foi avaliados aos 56 dias (IMCDM-VEGF). Ao final do protocolo os animais foram anestesiados (pentobarbital sódico, 40mg/Kg) e a artéria carótida direita foi canulada para registro da PA. Logo após, esta cânula foi inserida no ventrículo esquerdo (VE) para registro da pressão ventricular. O registro e processamento dos sinais de pressão foram realizados utilizando-se um sistema de aquisição de sinais (CODAS, 1 Khz). O débito cardíaco (DC) e os fluxos regionais (coração e rins) foram avaliados através da infusão de 300 000 microesferas azuis no ventrículo esquerdo. Após a infusão de 50 000 microesferas amarelas na artéria principal do GD o fluxo colateral extramiocárdico do GD para o coração (FCO GD→coração) foi quantificado através da divisão do número de microesferas amarelas no coração pelo número de microesferas amarelas no GD. Após a oclusão da artéria do GD foram infundidas 300 000 microesferas azuis no VE e o fluxo colateral extramiocárdico do coração para o GD (FCO coração→GD) foi avaliado pela divisão do número de microesferas azuis no GD pelo número de microesferas azuis no coração. O IM induziu hipotensão e aumento da pressão diastólica final (PDF) nos grupos IM-14 (84±6 e 6,88±2,6 mmHg) e IM-56 (98±3 e 15,4±2 mmHg) em relação aos seus respectivos controles (C-14: 102±4 e –3,2±0,5; C-56: 114±3 e 0,5±1,7 mmHg). O débito cárdiaco (DC) foi menor no grupo IM-56 (49,5±9 ml/min) em relação ao grupo IM-14 (72±9 ml/min). A máxima velocidade de relaxamento do VE (-dP/dt) estava reduzida nos grupos IM-14 (-2416±415 vs -4141±309 mmHg/seg nos C-14) e IM-56 (-3062±254 vs -4191±354 mmHg/seg nos C-56) e a de contração do VE (+dP/dt) somente no grupo IM-56 (4191±354 vs 5420±355 mmHg/seg nos C-56). O IM não alterou o fluxo e a resistência vascular coronariana, no entanto, o fluxo renal estava reduzido e a resistência renal aumentada no grupo IM-56 quando comparados ao grupo C-56. Os animais com 56 dias de IM apresentaram aumento de massa ventricular (pv) e da razão peso ventricular/peso corporal (pv/pc) em relação aos controles (1,3±0,04 vs 0,98±0,04 23 g e 3,37±0,08 vs 2,54±0,09 mg/g nos C-56). O tamanho do infarto foi menor no grupo IM-14 (35±3 % do VE) em relação ao grupo IM-56 (44±2 % do VE). Os grupos sham não apresentaram alterações nos parâmetros avaliados em relação aos seus controles. Os ratos infartados submetidos à CDM não apresentaram hipotensão (105±2 mmHg), nem aumento da PDF (4,8±1,7 mmHg) conforme observado no grupo IM-56. O FC, o DC, a RVP e os fluxos e a resistência vascular coronariana foram semelhantes entre os grupos C-56, IM-56, C-CDM e IM-CDM. A +dP/dt e a –dP/dt mostraram-se reduzidas nos grupos C-CDM e IM-CDM em relação ao grupo C-56. O fluxo e a resistência vascular renal estavam normalizadas nos ratos IM-CDM. O pv (1,11±0,04g) e a razão pv/pc (2,94±0,09 mg/g) apresentaram-se similares aos valores do grupo C-56 e o tamanho do IM foi semelhante entre os grupo IM-56 e IM-CDM (44±2 vs 45±3 % do VE). O grupo IMCDM-VEGF apresentou normalização dos parâmetros hemodinâmicos e morfométricos de forma semelhante aos do grupo IM-CDM quando comparados ao grupo IM-56. A resistência coronariana mostrou-se reduzida nos animais IMCDM-VEGF (22,07±2,01 mmHg/ml/min/g) quando comparada ao grupo C-CDM (37,81±4 mmHg/ml/min/g), apesar do fluxo coronariano ter sido similar entre os grupos submetidos à CDM. O FCOcoração→GD ocorreu predominantemente nos animais dos grupo C-CDM e IMCDM-VEGF (70% e 83,3% vs 28,6% no IM-CDM) enquanto que o FCO GD-coração foi observado em todos os animais dos grupos IM-CDM e IMCDM-VEGF (20% no C-CDM). A administração de VEGF165 aumentou o FCO GD→coração em valores absolutos e normalizados por grama (24,85±10,3% e 62,29±23,27%/g) em relação aos grupos C-CDM (0,88±0,89% e 1,42±1,42%/g) e IM-CDM (4,43±1,45 % e 7,66±2,34 %/g). O FCO GD→coração normalizado foi maior nos animais IM-CDM em relação aos C-CDM. O grupo IMCDM-VEGF (4,47±1,46 %/g) apresentou maior FCO coração→GD normalizado em comparação ao grupo MI-CDM (2,43±1,44 %/g). O tamanho do infarto foi menor nos animais do grupo IMCDM-VEGF (36±3 % do VE) em relação aos grupos IM-56 e IM-CDM. Correlações positivas foram obtidas entre o FCO GD→coração e o volume sistólico e (r=0,7) e o fluxo coronariano (r=0,7), e entre a PDF e a razão pv/pc (r=0,8) e o tamanho do IM (r=0,6). Além disso, correlações inversas foram observadas entre o tamanho do infarto e o volume sistólico (r=0,8) e o FCO GD→coração (r=0,7). Estes resultados permitem concluir que a CDM passiva preveniu a disfunção e o remodelamento do VE em ratos infartados. A aplicação de VEGF165 induziu diminuição do tamanho do IM que pode estar associado ao aumento do fluxo colateral extramiocárdico do GD→coração observado neste grupo tratado com VEGF. Estes achados sugerem que o uso de fatores angiogênicos, como o VEGF165, pode induzir melhora da perfusão das regiões isquêmicas do coração infartado, limitando a perda tecidual. Este efeito associado ao da compressão passiva do VE infartado pelo GD pós CDM, pode prevenir as disfunções decorrentes de isquemias miocárdicas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Recentemente, tem sido questionada a validade do teorema de Migdal nos fuieretos dopados supercondutores. Motivados por esse problema, realizamos nesta dissertação uma revisão das propriedades físicas destes novos e notáveis materiais: os fulerenos e outros representantes desta família de compostos orgânicos que possuem estrutura geométrica de gaiola fechada. Em primeiro lugar abordamos, ainda que de maneira sucinta, alguns fundamentos da teoria microscópica BCS (Bardeen, Cooper e Schrieffer, 1961) da supercondutividade, tais como o problema da instabilidade do líquido de Fermi, a formação de pares de Cooper, o método da transformação canônica para demonstrar o aparecimento da interação efetiva atrativa entre os elétrons do par, as equações de Gor'kov demonstrando o surgimento do gap supercondutor, e a expressão BCS da temperatura crítica no limite de acoplamento fraco. Após, revisamos o trabalho realizado por Grimaldi, Cappelluti e Pietronero (1995), sobre a supercondutividade não adiabática nos fuieretos dopados, no qual são feitas correções de vértice para a interação elétron-fônon, usando o método perturbativo. Naquele trabalho eles utilizam um modelo de fônons de Einstein com uma única freqüência para caracterizar a função espectral de Eliashberg, necessária para obter tais correções de vértice Nossa proposta neste trabalho é generalizar este modelo por um constituído de várias Lorentzianas truncadas, centradas nas freqüências dos principais modos de vibração da rede cristalina: os intermoleculares, os ópticos e os intramoleculares. Encontramos como resultado deste estudo que as correções de vértice, com contribuição multifonônica, introduzem modificações substancias como um aumento da temperatura crítica e variação no coeficiente isotópico, dando resultados mais próximos dos obtidos experimentalmente, em contraste daqueles obtidos na teoria de Migdal-Eliashberg, sem correções de vértice.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é calcular, pela primeira vez na literatura, os fluxos de emprego (job flows) na indústria gaúcha nos anos 90 e sua relação com o processo de abertura comercial no período. O trabalho propõe o estudo do emprego na indústria através do comportamento das variações do emprego nas empresas individualmente, para identificar a heterogeneidade de comportamento dentro dos setores, ao invés do uso de médias agregadas, que implicitamente supõe um comportamento homogêneo das empresas. Denominamos fluxos de emprego as taxas de criação e destruição do emprego, estimadas em 5,15% e 6,42% ao ano, em média, respectivamente. Destas obtemos a taxa líquida de crescimento do emprego e a taxa de realocação bruta do emprego, estimadas em –1,27 e 11,57%, respectivamente. Em todos os anos da década houve criação e destruição de emprego simultaneamente, sugerindo uma grande heterogeneidade na dinâmica do emprego nas empresas. A perda média de 1 emprego em 100 por ano no período é resultado da abertura de 5 postos e destruição de 6 postos. Além dos fluxos, este trabalho estima e analisa o impacto do câmbio e da abertura comercial do país nestas taxas. As regressões indicaram para, dada uma depreciação de 1% do câmbio, um impacto de 0,10% sobre a criação de emprego e um impacto, simétrico, de –0,097% sobre a destruição de emprego no trimestre seguinte Por outro lado, a abertura comercial ocorrida nos anos 90, medida através do grau de abertura setorial, não se mostrou significativo para explicar as variações da criação de empregos e da realocação, tendo um efeito positivo na variação líquida e negativo na destruição de postos de trabalho na indústria gaúcha nos anos 90, liderado, a princípio, pelas exportações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em vista da maior complexidade da programação paralela e distribuída em relação à programação de ambientes centralizados, novas ferramentas vêm sendo construídas com o objetivo de auxiliar o programador desses ambientes a desempenhar sua tarefa de formas mais eficazes e produtivas. Uma das ferramentas que há algum tempo tem sido usada na programação centralizada e aos poucos está sendo empregada também na programação concorrente é a programação visual. A programação visual se vale da presença de elementos visuais na especificação dos programas como peças chaves do processo de desenvolvimento de software. No caso específico da programação concorrente, a programação visual é especialmente útil pela capacidade que os gráficos têm de representar de forma mais adequada estruturas bidimensionais. Um programa concorrente, por relacionar no espaço diversos elementos com seus próprios fluxos de execução, faz surgir duas dimensões de análise que são mais difíceis de serem observadas através de programas textuais. Atualmente existem ferramentas de programação visual paralela e distribuída, mas a ênfase é dada na programação paralela, sem muita atenção a aplicações de sistemas abertos ou cliente-servidor. Além disso, tais ferramentas sofrem da falta de apoio à engenharia do software. Considerando essas deficiências, este trabalho apresenta uma ferramenta de programação visual para o desenvolvimento de aplicações compostas por objetos distribuídos que ofereça também a possibilidade de aplicar os principais conceitos da engenharia de software, como reutilização e orientação a objeto. Nesta ferramenta, o programador especifica de maneira visual a estrutura do seu programa, insere o código textual para a lógica da aplicação e o ambiente se encarrega do tratamento da distribuição e da comunicação de mais baixo nível. A aplicação é representada como um grafo dirigido, onde os nodos representam os objetos distribuídos e os arcos indicam os relacionamentos existentes entre esses objetos. A especificação dos programas é modular, baseando-se na reunião de componentes reutilizáveis, o que torna o sistema altamente configurável e extensível. Tanto a implementação da ferramenta quanto o código das aplicações geradas usam a linguagem de programação Java. A linguagem de programação visual projetada não especifica detalhes a respeito de como irá funcionar a comunicação e distribuição dos objetos. Portanto, foram implementados componentes para comunicação e outros recursos de programação distribuída, como locks e dados globais para serem usados nas aplicações. Para validar os principais objetivos da ferramenta, foram implementados alguns exemplos de aplicações distribuídas, como um pequeno sistema de bate-papo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo visa analisar a relação entre a produtividade e as condições de trabalho de funcionários em uma área de Processamento de Vegetais de uma Indústria de Refeições Coletivas. O trabalho foi desenvolvido em forma de estudo de caso, e a metodologia utilizada, neste estudo, caracterizou-se como uma pesquisa descritiva, cujos sujeitos da pesquisa foram funcionários da área específica. Para tanto, os instrumentos utilizados para uma avaliação integrada da área da ergonomia, produtividade e layaul, foram: relatórios gerados pelo Departamento Pessoal da empresa; observação direta e utilização de filmagens e fotografias das atividades realizadas; entrevistas, elaboração da matriz produto x processo e de fluxos de processos constando tomadas de tempo e distância e, por fim, análise dos dados e recomendações. Fizeram parte deste estudo 29 funcionários, com a faixa etária variando entre 19 e 49 anos. Constatou-se que o trabalho exige esforço físico, movimentos repetitivos por longos períodos, carregamento e levantamento de peso, postura em pé e deslocamentos durante a realização das atividades. Algumas tarefas foram classificadas como penosas, segundo a percepção dos próprios funcionários, fato que pode estar relacionado com o significativo número de atestados e afastamentos. Observou-se também que ocorrem cruzamentos entre as tarefas, assim como a formação de gargalos, conseqüentemente ocasionando problemas de fluxo. As recomendações envolvem questões pertinentes às condições organizacionais, visando um funcionamento mais satisfatório, através de rearranjos dos postos de trabalho e redução do fluxo. Estas recomendações possibilitariam uma melhor organização nos postos de trabalho, um maior controle de produção, através da separação segundo as características dos processos e, possivelmente na qualidade das condições de execução das tarefas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O novo cenário mundial, marcado pela globalização e atingindo todos os tipos de empresas nos mais variados setores, é descrito como um ambiente de competição muito acirrada, no qual as empresas precisam encontrar soluções cada vez mais rápidas, com precisão e eficiência, entregando um valor maior para seus clientes e melhores retornos para os acionistas. Nesse ambiente, a informação é um fator primordial de diferenciação, sobrevivência e prosperidade para as organizações. Fluxos de informações confiáveis devem ser desenvolvidos, a fim de contribuir para uma melhor qualidade das decisões. O operador de central de atendimento, ou atendente como é conhecido no segmento, é um infomediário e deve ser preparado e treinado para melhor desempenhar o seu papel na coleta de dados e informações. Assim, o objetivo deste trabalho é propor um fluxo que disponibilize informações precisas e confiáveis a respeito dos clientes, a partir de contatos via central de atendimento da Telet, tornando o processo decisório mais ágil e com foco do cliente. Para isso, foram realizadas entrevistas para identificar as carências e as dificuldades de informações disponibilizadas pela Central de Atendimento às áreas clientes da empresa (marketing, planejamento,engenharia e TI), e foi aplicada uma pesquisa com os atendentes, buscando entender os fatores críticos que os levam a não registrar corretamente as demandas dos clientes, bem como o entendimento de seu papel na organização. Da análise dos dados das entrevistas com especialistas das áreas clientes e dos resultados da pesquisa, estruturada e aplicada em uma amostra de atendentes, emergiu a proposta de um novo fluxo de informações que qualifique a tomada de decisão. Constatou-se que não basta apenas a central de atendimento estar preparada, treinada e capacitada, para melhor atender o cliente e coletar dados e informações dos produtos e serviços. Um fluxo de informações estruturado é fundamental para que a informação trafegue até o destino correto, apoiando a tomada de decisão, permitindo a aprendizagem e a geração do conhecimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O mundo globalizado de hoje conduz as organizações a buscarem, cada vez mais, a Reengenharia de Processos de Negócio ou BPR – Business Process Reengineering como uma solução para se manterem competitivas em seus respectivos mercados. Uma das tecnologias de informação que aparece como habilitadora da BPR é a tecnologia de Workflow (fluxos de trabalho), onde os WfMS – Workflow Management Systems ou Sistemas de Gerenciamento de Workflow, através de metodologias e software, facilitam a transformação que está sendo exigida às empresas para se manterem competitivas. Existem, atualmente, muitos estudos sobre WfMS, o que evidência esta como sendo uma área bastante próspera e em desenvolvimento. Apesar de existirem diversos WfMS comerciais com ferramentas para dar suporte à modelagem e, posterior, reengenharia dos processos de negócio, os recursos fornecidos para a reengenharia de processos que são voltados para a análise, teste e monitoramento de workflow, não levam em consideração os mecanismos de coordenação de atividades, inerentes à estrutura organizacional existente. Busca-se, através deste trabalho, estudar o problema do processo de reengenharia e da otimização de processos, a partir da análise de (sub)processos de WfMS, considerando alguns aspetos estruturais das organizações. Neste contexto, o objetivo deste trabalho é identificar e descrever, de forma sistemática, o relacionamento existente entre (sub)processos de workflow e mecanismos de coordenação de atividades. Com isso, pretende-se que com os resultados obtidos possam ser utilizados como ponto de partida para o desenvolvimento de um sistema automatizado para auxiliar na reengenharia de processos com base em WfMS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As práticas de manejo influenciam fatores controladores da dinâmica do C em solos agrícolas e, portanto, seus estoques de C orgânico e os fluxos de C no sistema solo-atmosfera na forma de dióxido de carbono (CO2) em solo em condições aeróbicas e metano (CH4) em solo inundado. O objetivo geral desse trabalho foi avaliar essas influências em solos submetidos por longo período aos sistemas de preparo convencional (PC) e plantio direto (PD).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho caracteriza uma visão geral de recente pesquisa utilizando dados de patentes como indicador de inovação tecnológica e fonte de informação para o apontamento das estratégias utilizadas pelas empresas e países no desenvolvimento de tecnologias e sua apropriação. Conceitos referentes à inovação e patentes são discutidos no decorrer do trabalho. A prospecção contemplou quatro dos principais bancos de patentes no mundo, analisando um total de 3.104 documentos. Ao verificar as informações contidas nas patentes, constatou-se o alto grau de inovação e inventividade desenvolvido por países como Estados Unidos, Holanda e Japão nas diferentes áreas tecnológicas da avicultura industrial (genética, nutrição, sanidade, máquinas e equipamentos). Acerca das estratégias, confirmou-se o domínio de áreas tecnológicas como a genética pelos americanos e europeus e áreas diversificadas de patenteamento como a área química e saúde humana pelo Japão. Quanto às estratégias de depósitos, os fluxos apontaram os Estados Unidos como país que recebeu maior número de patentes estrangeiras. No Brasil, grande parte das patentes depositadas pertencem a empresas estrangeiras cuja área tecnológica refere-se na maioria a máquinas e equipamentos. Por parte dos detentores brasileiros, destaca-se estratégia de caráter incremental compreendida pelo patenteamento de melhorias e adaptações feitas por meio de dispositivos e inclusão de peças em máquinas e equipamentos. De maneira geral, a análise das patentes mostrou um grupo seleto de empresas, principalmente dos Estados Unidos e Holanda, como detentoras de significativo percentual dos depósitos em nível mundial Por parte dos detentores brasileiros, destaca-se estratégia de caráter incremental compreendida pelo patenteamento de melhorias e adaptações feitas por meio de dispositivos e inclusão de peças em máquinas e equipamentos. De maneira geral, a análise das patentes mostrou um grupo seleto de empresas, principalmente dos Estados Unidos e Holanda, como detentoras de significativo percentual dos depósitos em nível mundial. No elo processador poucas foram as patentes encontradas, depositadas somente no país de origem do detentor. Isto implica que particularmente neste elo, a inovação não se associa a proteção, sendo a imitação livre. Especificamente para o Brasil, a estratégia da indústria avícola nacional não está relacionada a um patenteamento próprio, mas sim a um padrão tecnológico difundido pelos setores fornecedores das mais variadas tecnologias, estas sim patenteadas. Somente a análise de patentes é incapaz de captar aspectos específicos de inovação do setor em estudo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Astronomia, como origem e, talvez, como fim de todas as Ciências, sempre esteve voltada à observação dos astros e à busca de novas técnicas e instrumentos que permitissem ampliar os limites e a qualidade destas observações. Dessa busca resultou o desenvolvimento do telescópio óptico, em 1608, por Galileu Galilei. Com o passar dos anos, esse instrumento foi sofrendo incontáveis aperfeiçoamentos, chegando aos nossos dias como um aparelho preciso e de sofisticada tecnologia. Apesar das fronteiras observacionais terem avançado para além do espectro visível, o telescópio óptico ainda é indispensável à Astronomia. O Brasil, embora não apresente condições meteorológicas ideais para observações astronômicas, possui observatórios ópticos de razoável qualidade, como o Laboratório Nacional de Astrofísica, LNA, em Minas Gerais, entre outros. Em seu extremo sul, no entanto, o País carece de bons instrumentos ópticos, destacando-se unicamente o telescópio da UFRGS instalado no Observatório do Morro Santana, em Porto Alegre. O aumento da iluminação artificial na Região Metropolitana de Porto Alegre e, conseqüentemente, da claridade do céu noturno tem praticamente inviabilizado a operação do Observatório. Assim, a escolha de novos locais para a futura instalação de telescópios ópticos no Estado é imprescindível. Acrescenta-se a isto o fato do ciclo climático desta região diferenciarse daquele das demais regiões do País, fato relevante, dado que um dos fatores determinantes na escolha de novos sítios para telescópios ópticos é a taxa de nebulosidade. Levantamentos in situ de nebulosidade são longos e custosos. Como alternativa, neste trabalho foi realizado um estudo estatístico do Estado, a partir da montagem de um banco de 472 imagens noturnas dos satélites GOES e MeteoSat. A combinação das imagens, por processo de superposição e cálculo de valores médios de contagens (brilho), à escala de pixel, forneceu informações em nível de préseleção, ou indicativo, de locais com altas taxas de noites claras. Foram cobertos os períodos de 1994-1995 e 1998-1999, com focalização nas áreas em torno de Bom Jesus, Vacaria e Caçapava do Sul. Como controle, foi também monitorada a área em torno do LNA em Minas Gerais. Ademais da demonstração metodológica, os dados orbitais indicaram que, na média destes anos, estas áreas são adequadas à instalação de observatórios astronômicos, pela conjugação dos fatores de nebulosidade e altitude.