943 resultados para Gerenciamento de processos
Resumo:
O crescimento experimentado pela indústria do software nas últimas décadas, trouxe consigo o aumento das exigências do mercado. É exigido das organizações de software, que os sistemas sejam construídos de acordo com prazo e custos determinados, obedecendo-se certos padrões de qualidade. Para atender tais exigências e assim obter o diferencial competitivo, tornou-se necessário investir no processo de desenvolvimento de software, dada a relação cada vez mais evidente entre a qualidade do produto de software e a eficiência e eficácia do processo de desenvolvimento adotado. Uma estratégia na busca pela maturidade em termos de processos é a definição e adoção de um processo único a ser seguido em todos os projetos de uma organização, denominado processo padrão. Levando-se em consideração a singularidade de cada novo projeto de software, é natural presumir que o processo padrão tenha de ser adaptado para as necessidades específicas de cada situação, de forma a ser aceito, ter seu uso maximizado e garantir a qualidade do software a ser produzido. Este trabalho apresenta, assim, o APSEE-Tail, um modelo para apoiar o engenheiro de processos na tarefa de adaptar o processo padrão de uma organização de software para as particularidades de cada um de seus projetos, possibilitando maior efetividade e eficiência no uso do mesmo. Sua abordagem de adaptação é livre, orientada à atividades e baseada no raciocínio, através da combinação das técnicas de interpretação de regras e CBR (Case Based Reasoning), sobre o conhecimento necessário. Tal conhecimento, neste trabalho, é agrupado em três categorias: diretrizes de adaptação do processo padrão, tipos de característica usados para definir os projetos de software e informações sobre adaptações realizadas anteriormente. Os diferentes componentes envolvidos na definição do APSEE-Tail foram especificados algebricamente, o que constituiu uma base semântica de alto nível de abstração e possibilitou a construção de um protótipo, implementado no ADS (Ambiente de Desenvolvimento de Software) Prosoft-Java e fracamente acoplado ao APSEE, um ambiente de engenharia de software centrado no processo também prototipado no Prosoft-Java, tornando-se assim parte do meta-processo adotado pelo mesmo. O texto apresenta ainda alguma fundamentação teórica sobre a área de Adaptação de Processos de Software, considerações sobre as abordagens pesquisadas, enfatizando as que mais influenciaram o APSEE-Tail, e um exemplo de aplicação do protótipo construído. Por fim, são apresentadas as contribuições e limitações da proposta, na visão do autor, bem como os trabalhos futuros vislumbrados.
Resumo:
A silicose é a formação de cicatrizes permanentes nos pulmões, provocadas pela inalação do pó de sílica (quartzo) existente na areia. A exposição à poeira respirável contendo sílica é comum entre os trabalhadores de minas, indústrias cerâmicas, os cortadores de arenito e de granito e também os operários de fundições de metais ferrosos e não ferrosos. Atualmente, as fundições reutilizam a areia, adicionando no processo de fundição, percentuais de 3% até 10% de areia nova. Com base em uma Intervenção Ergonômica, este trabalho aborda a avaliação ambiental da concentração de sílica (SiO2) em uma fundição de metais ferrosos da região metropolitana da grande Porto Alegre, com o objetivo de quantificá-la e compará-la com os limites de tolerância (LT) recomendados. Foram obtidas amostras de poeira respirável junto aos trabalhadores, conforme grupo homogêneo de trabalho, utilizando bomba de amostragem de uso individual, ciclone Door-Oliver e filtro de membrana de PVC. Para quantificação da sílica na amostra coletada foi utilizada a técnica da espectrometria de difração de Raios X. Os resultados obtidos indicaram que a exposição à poeira contendo sílica, nas condições de trabalho analisadas, apresenta-se com valores de exposição aceitável segundo as normas nacionais e internacionais.
Resumo:
Os sistemas operacionais de tempo real, assim como os sistemas embarcados, estão inseridos no desenvolvimento de projetos de automação industrial segmentado em diversas áreas de pesquisa como, por exemplo, robótica, telecomunicações, e barramentos industriais. As aplicações de sistemas modernos de controle e automação necessitam de alta confiabilidade, velocidade de comunicação, além de, determinismo temporal. Sistemas operacionais de tempo real (SOTR) têm-se apresentado como uma solução confiável quando aplicadas em sistemas que se fundamentam no cumprimento de requisitos temporais. Além disso, o desempenho computacional é totalmente dependente da capacidade operacional da unidade de processamento. Em um sistema monoprocessado, parte da capacidade computacional da unidade de processamento é utilizada em atividades administrativas, como por exemplo, processos de chaveamento e salvamento de contexto. Em decorrência disto, surge a sobrecarga computacional como fator preponderante para o desempenho do sistema. Este trabalho tem por objetivo, analisar e fornecer uma arquitetura alternativa para realizar o co-processamento de tarefas em uma plataforma IBM-PC, aumentando a capacidade computacional do microprocessador principal. No presente trabalho, a plataforma de coprocessamento realiza a execução do algoritmo de escalonamento do sistema operacional, desta forma distribuiu-se o gerenciamento temporal das tarefas entre a plataforma IBM-PC e a unidade de co-processamento.
Resumo:
Através desta pesquisa, analisa-se a lei 9.957/2000, que instituiu o procedimento sumaríssimo no processo do trabalho. Procura-se identificar os modelos de procedimentos utilizados na tramitação do processo trabalhista, notadamente o procedimento sumaríssimo e sua eficácia, dentro da estrutura organizacional da Justiça do Trabalho. Busca-se demonstrar a necessidade do cumprimento da lei n. 9.957/2000, como instrumento viável para uma efetiva prestação jurisdicional da Justiça do Trabalho, nas ações de valor abaixo de quarenta salários mínimos. Para atingir tais propósitos, abordam-se, inicialmente, aspectos teóricos fundamentais relacionados ao acesso à justiça, aos princípios constitucionais da duração razoável do processo e da segurança jurídica e, ainda, a interpretação e integração da legislação trabalhista. Em um segundo momento, demonstra-se a necessidade de reforma na estrutura organizacional da Justiça do Trabalho para uma integral aplicabilidade do procedimento sumaríssimo, em face da sobrecarga de processos em tramitação nas varas do trabalho. Analisa-se, também, a visão dos operadores do Direito do Trabalho, jurisdicionados e serventuários da Justiça do Trabalho sobre o procedimento sumaríssimo, na qualidade de instrumento eficaz na busca de uma prestação jurisdicional célere e, por isso, efetiva. Por fim, expõe-se a proposta de criação de varas do trabalho específicas para julgamento de processos tramitados pelo procedimento sumaríssimo, como instrumento de celeridade da atividade jurisdicional e de redução do tempo de duração do processo trabalhista.
Resumo:
Em sistemas de controle de tráfego veicular urbano existem diversas abordagens que lidam com o problema da redução do congestionamento de tráfego. Uma classe destas abordagens aplica a sincronização de semáforos a m de permitir que os veículos que viajam em um sentido possam passar diversos cruzamentos sem paradas. Este trabalho apresenta dois métodos de coordenação de agentes aplicados à sincroniza ção de semáforos. O primeiro método inspira-se em mecanismos de coordenação observados em insetos sociais e o segundo modela o problema de coordenação de semá- foros como um problema de otimização de restrições distribuído e faz sua resolução em tempo real utilizando mediação cooperativa. Inicialmente são apresentados conceitos básicos de sistemas de tráfego urbano, Swarm Intelligence e problemas de otimização de restrições. A partir dos conceitos iniciais, são apresentados os modelos propostos. Os resultados mostram que as abordagens propostas geram a coordenação entre os sem áforos sendo que o modo que os agentes estão coordenados pode mudar para se adaptar às mudanças nas condições do ambiente, gerando melhores condições de uxo de tráfego.
Resumo:
A pergunta "O Gerenciamento de Projetos é necessário?" Raramente é questionada nos dias de hoje. As questões mais relevantes são: Quais são as melhores práticas, ferramentas, e competências para que o Gerenciamento de Projetos seja conduzido de forma profissional? Quais são os componentes que constituem qualidade no Gerenciamento de Projetos? O que é sucesso no Gerenciamento de Projetos? A grande importância da Estratégia Empresarial para a definição da posição de uma companhia, e a inovação requerida para se obter vantagem competitiva sustentável coloca a necessidade de implementação cada vez mais rápida e efetiva de novos projetos. Este trabalho apresenta uma proposta que visa estabelecer uma inter-relação entre a Estratégia Empresarial, a qual dá a direção e o contexto de criação de um novo projeto, e o Gerenciamento de Projetos, buscando entender se os métodos utilizados para priorização dos projetos a comporem o portfólio de projetos de uma organização, de fato contribuem para a escolha dos projetos alinhados a estratégia, ou se outros fatores tem mais peso do que a direção estratégica da Organização.
Resumo:
Esta dissertação é um estudo de caso sobre aprendizagem tecnológica que, considerando as evidências empíricas descritas no Capítulo 6 e à luz da Tabela 3.1, procurou identificar a trajetória de acumulação de competência tecnológica da Enxuta Industrial Ltda., ao longo do período estudado (1980 - 2000), para as funções tecnológicas de investimentos (decisão e controle sobre a planta e engenharia de projetos), de processos e organização da produção, de produtos e de equipamentos. Para construir a estrutura de competências tecnológicas para a indústria de eletrodomésticos foi utilizada a estrutura desenvolvida por Figueiredo (2000). Por outro lado, considerando as evidências empíricas descritas no Capítulo 7 e à luz da Tabela 3.2, procurou-se identificar a influência dos processos de aprendizagem utilizados pela empresa sobre a sua trajetória de acumulação de competência tecnológica. Os processos de aprendizagem são avaliados à luz de quatro características chave: variedade, intensidade, funcionamento e interação, a partir do uso da estrutura desenvolvida por Figueiredo (2000). Este estudo verificou que o modo e a velocidade de acumulação de competência tecnológica na Enxuta Industrial Ltda. foram influenciados pelos processos e mecanismos de aprendizagem usados para adquirir conhecimento tecnológico e convertê-lo em organizacional. Estes processos e mecanismos de aprendizagem propiciaram a empresa alcançar uma maior velocidade na acumulação de capacidades tecnológicas, quando de sua entrada na indústria de eletrodomésticos, o que proporcionou alcançar o desenvolvimento tecnológico necessário para atuar nesta indústria. Porém, a simples incidência desses processos na empresa não garantiu uma implicação positiva para a acumulação de competência tecnológica. Pois, no período de 1991 - 1995, verificou-se a deterioração do funcionamento dos processos de aprendizagem utilizados na empresa, o que pode ter influenciada negativamente a repetibilidade e a interação daqueles processos. Isto parece ter contribuído para que a empresa falhasse em construir e acumular competências tecnológicas inovadoras naquele período. Através do uso de estrutura existente na literatura, aplicada a uma indústria diferente de estudos anteriores, esta dissertação sugere que deve existir um esforço organizado, contínuo e integrado para a geração e disseminação de conhecimento tecnológico na empresa, o que pode acelerar a acumulação de competências tecnológicas, desta forma propiciando à empresa a construção de uma trajetória de aproximação da fronteira de desenvolvimento tecnológica da indústria.
Resumo:
Mercados financeiros e finanças corporativas
Resumo:
Nas últimas décadas, o papel do Governo brasileiro na oferta de habitação de interesse social tem sofrido mudanças, com a participação mais ativa do setor privado no desenvolvimento de produtos. Isto tem levado à crescente complexidade financeira, regulamentar, ambiental, social e técnica. Um grande número de profissionais é envolvido, demandando muito esforço no gerenciamento de requisitos conflitantes e trade-offs. Além disso, o aumento na velocidade das inovações tecnológicas e a crescente exigência por qualidade por parte dos clientes tem demandado mudanças no processo de desenvolvimento do produto (PDP) no sentido de aumentar o seu valor do ponto de vista do cliente final. O objetivo principal deste trabalho é identificar oportunidades de melhorias para o gerenciamento de requisitos do cliente em empreendimentos do Programa de Arrendamento Residencial (PAR), no contexto atual brasileiro. Este programa é uma nova forma de provisão habitacional, gerenciada pela Caixa Econômica Federal. O desenvolvimento desta pesquisa foi dividido em três etapas. A Etapa A teve como objetivo principal a compreensão do PDP de empreendimentos PAR, através da elaboração de um modelo descritivo. Para tanto, foram realizados sete estudos de caso, analisando o desenvolvimento de diferentes empreendimentos do PAR, além de entrevistas semi-estruturadas com diversos agentes do processo. A Etapa B teve como objetivo a captação de requisitos do cliente final de empreendimentos do PAR, realizada através de quatros estudos de caso. Na última etapa, foram realizados nove seminários, em oito cidades brasileiras, para apresentar os resultados a técnicos da CEF, Prefeituras Municipais e empresas construtoras. As principais contribuições deste trabalho dizem respeito a melhorias na captação de requisitos do cliente final e à compreensão da diversidade dos requisitos dos clientes finais desse modo de provisão.
Resumo:
Este estudo objetivou demonstrar que é possível explicar os fenômenos que ocorrem na criação de frangos de corte através de redes neurais artificiais. A estatística descritiva e a diferença entre as médias das variáveis dos dados iniciais foram calculadas com o programa computacional SigmaStat® Statistical Software para Windows 2.03. Foi utilizada uma série histórica de dados de produção de frangos de corte, obtidos nos anos de 2001 e 2002, fornecidos por uma Integração Avícola do Rio Grande do Sul, contendo informações de 1.516 criadores com lotes alojados em 2001 e 889 criadores com lotes alojados em 2002. Nos arquivos estavam registrados, para cada lote, suas variáveis de produção, tais como número do lote, data do alojamento, data do abate, idade ao abate, número de pintos alojados, quilogramas de ração consumidos, quilogramas de frangos produzidos, número de aves abatidas, custo do frango produzido, mortalidade, peso médio, ganho de peso diário, índice de conversão alimentar, índice de eficiência, quilogramas líquido de frangos, quilogramas de ração inicial, quilogramas de ração crescimento, quilogramas de ração abate, além de outros. Para a construção das redes neurais artificiais foi utilizado o programa computacional NeuroShell®Predictor, desenvolvido pela Ward Systems Group. Ao programa foi identificado as variáveis escolhidas como “entradas” para o cálculo do modelo preditivo e a variável de “saída” aquela a ser predita. Para o treinamento das redes foram usados 1.000 criadores do banco de dados do alojamento de frangos de corte de 2001. Os restantes 516 criadores de 2001 e todos os 889 criadores de 2002 serviram para a validação das predições, os quais não participaram da etapa de aprendizagem, sendo totalmente desconhecidos pelo programa. Foram gerados 20 modelos na fase de treinamento das redes neurais artificiais, com distintos parâmetros de produção ou variáveis (saídas). Em todos estes modelos, as redes neurais artificiais geradas foram bem ajustadas apresentando sempre, um Coeficiente de Determinação Múltipla (R²) elevado e o menor Quadrado Médio do Erro (QME). Ressalta-se que o R² perfeito é 1 e um coeficiente muito bom deve estar próximo de 1. Todos os 20 modelos, quando validados com os 516 lotes de 2001 e com 889 de 2002, apresentaram também Coeficientes de Determinação Múltipla (R²) elevados e muito próximos de 1, além de apresentarem o Quadrado Médio do Erro (QME) e Erro Médio reduzidos. Foi comprovado não haver diferenças significativas entre as médias dos valores preditos e as médias dos valores reais, em todas as validações efetuadas nos lotes abatidos em 2001 e em 2002, quando aplicados os 20 modelos de redes neurais gerados. Como conclusão, as redes neurais artificiais foram capazes de explicar os fenômenos envolvidos com a produção industrial de frangos de corte. A técnica oferece critérios objetivos, gerados cientificamente, que embasarão as decisões dos responsáveis pela produção industrial de frangos de corte.Também permite realizar simulações e medir a contribuição de cada variável no fenômeno em estudo.
Resumo:
O objetivo deste trabalho é identificar os fatores internos às organizações que facilitam ou inibem o processo de inovação organizacional originada na alta direção de instituições financeiras. O desenvolvimento deste trabalho está baseado em dois casos de inovação organizacional ocorridos em áreas diferentes do Itaú Unibanco Banco Múltiplo S.A. A metodologia para o estudo de organizações inovadoras proposta pelo Fórum de Inovação da FGV –EAESP e a metodologia de pesquisa desenvolvida pelo MIRP (Minnesota Innovation Research Program) serviram como base para avaliar os fatores que facilitaram ou inibiram o processo de inovação nos casos estudados. Por meio da análise qualitativa dos fatores internos às organizações estudadas, chega-se a conclusão de que os fatores internos habilitadores e inibidores da inovação organizacional estão relacionados primeiramente as pessoas e aos contextos e em menor escala as transações.
Resumo:
Concomitantemente à produção de etanol, a partir da fermentação de diferentes matérias-primas (cana-de-açúcar, beterraba, milho, trigo, batata, mandioca), produz-se a vinhaça. A vinhaça da cana-de-açúcar é gerada na proporção média de 12 litros para cada litro de etanol. O Brasil é o maior produtor mundial de cana-de-açúcar (570 milhões de toneladas, em 2009) com a produção de 27 bilhões de litros/ano de etanol, no ciclo 2009/2010, basicamente para fins carburantes, e, portanto, a quantidade de vinhaça produzida é da ordem de 320 bilhões de litros/ano. Dentre as possíveis soluções para a destinação da vinhaça, tais como: concentração, tratamento químico e biológico ou produção de biomassa, é sua aplicação no solo a forma mais usual de disposição. No entanto, sua aplicação no solo não pode ser excessiva nem indiscriminada, sob pena de comprometer o ambiente e a rentabilidade agrícola e industrial da unidade sucroalcooleira. A necessidade de medidas de controle sobre a aplicação de vinhaça no solo do Estado de São Paulo, que concentra a produção de 60% do etanol produzido no Brasil, levou à elaboração da Norma Técnica P4.231, em 2005. A constatação do cumprimento dos itens desta Norma é uma das ações do agente fiscalizador, no monitoramento da geração e destinação da vinhaça pelos empreendimentos produtores de etanol. Os itens 5.7.1 e 5.7.2, desta Norma, tornam obrigatório o encaminhamento à CETESB (Companhia Ambiental do Estado de São Paulo), para fins de acompanhamento e fiscalização, até o dia 02 de abril de cada ano, o PAV (Plano de Aplicação de Vinhaça). Com o intuito de proporcionar melhor entendimento da Norma P4.231, contribuir para otimização de sua aplicabilidade e melhoria e perceber a realidade prática da aplicação da vinhaça, foram analisados PAVs protocolados na Agência Ambiental de Piracicaba, licenças concedidas, processos de licenciamento e realizadas vistorias a campo. Conclui-se que a Norma P4.231 representa um avanço no gerenciamento do uso da vinhaça no Estado de São Paulo, por disciplinar a disposição de vinhaça no solo, tornando obrigatórios: demarcações de áreas protegidas e núcleos populacionais, caracterização de solo e da vinhaça, doses máximas a serem aplicadas, estudos da geologia e hidrogeologia locais, monitoramento das águas subterrâneas, impermeabilização de tanques e dutos. Estabelece critérios a serem obedecidos por lei, e todos são condutas de boas práticas de proteção ao meio, que repercutem em maior rentabilidade agrícola e industrial. A Norma P4.231 é bem elaborada, complexa e extensa, o que a torna de difícil execução. Para facilitar sua aplicabilidade, sugere-se o estabelecimento de um cronograma de prioridades: impermeabilização dos tanques e dutos, drenos testemunha com funcionamento otimizado e boa caracterização do que está sendo aplicado, se vinhaça pura ou se misturada a águas residuárias. Das oito empresas deste estudo, apenas quatro (as maiores) vêm protocolando os PAVs com regularidade, desde 2005. As informações apresentadas foram incompletas e, em alguns casos, precárias. Mesmo com lacunas, os dados fornecidos, desde o início da obrigatoriedade do PAV, foram de utilidade para esboçar o perfil da atividade sucroalcooleira na região estudada.
Resumo:
O objetivo deste estudo foi descrever os desafios e oportunidades enfrentadas por centros de pesquisa voltados para a agroenergia. Focalizamos o estudo na estruturação de um centro financiado pela iniciativa privada, de forma cooperativa e propomos que seu modelo seja considerado por outros segmentos envolvidos com agroenergia, ou que possam beneficiar-se de experiências semelhantes. A pesquisa em agroenergia apresenta uma gama enorme de alternativas de desenvolvimento. Ao contrário de outros segmentos, a agroenergia pode ser pesquisada no desenvolver de uma longa cadeia que pode se iniciar na localização mais propícia para implantação de empreendimento, e seguir todas as etapas agrícolas e industriais até chegar à qualidade do produto final. A gestão do centro de pesquisas nesta área tem como seu principal desafio o de identificar quais dos diversos elos dessa enorme cadeia devem ser priorizados. Define-se um processo de análise técnica e econômica para cada potencial projeto a ser avaliado, determinar seu risco, prazo de maturação, retorno esperado para chegar-se a um portfólio de projetos satisfatórios com entregas a curto, médio e longo prazo. Durante todo o processo, prestar conta dos resultados de forma participativa e transparente.
Resumo:
Este trabalho estuda a formação dos Bookbuildings em emissões de ações no Brasil, também conhecidos como “Livro de Ofertas”, o último e mais importante estágio de um processo de IPO. Testam-se hipóteses de assimetria de informação, monitoramento e liquidez e conflito de interesse para o caso brasileiro em um conjunto de 18 emissões, todas oriundas de IPO’s emitidos no mercado de capitais brasileiro, sob a ótica das 5 variáveis mais significativas: Tipo de Investidor – curto e longo-prazo; Nacionalidade – Investidores dos Estados Unidos e locais; Participações em ofertas; Tamanho das ofertas; e Preço das emissões. O nosso banco de dados analisa todas as 209 operações de listagem primária e secundária dos últimos 7 anos, desde 2004, na Bovespa. São 209 ofertas públicas. Aprofundamo-nos em 18 delas, das quais possuímos todas as informações de formação de livro de ofertas. Demonstrou-se que em todas essas 18 ofertas o volume de ofertas feitas por investidores estrangeiros de fato “ancorou” as operações (representando mais do que 67% das ordens dos livros), fato que teve uma função muito importante, de “sinalizar” a força das determinadas ofertas em termos de demanda. Das 18 operações, o livro de ofertas de 39% excedeu mais do que 3 vezes a quantidade ofertada pela empresa issuer ao mercado. Em 56% dos casos, a demanda foi maior do que o dobro do número de ações oferecidas pelo issuer. Em 72% dos casos, a demanda excedeu a oferta em pelo menos 50%. A média de demanda das 2.229 ofertas de compra, divididas nos 18 IPO’s estudados, foi de quase 4 vezes o número de ações ofertadas, ou 394%, conforme tabela 11 deste trabalho. Os resultados obtidos seguem na direção das teorias de preferência por investidores de longo prazo em detrimento de investidores de curto prazo. Encontramos que o preço e a participação em diversos IPO’s não são determinantes para explicar as diferenças nas alocações, distanciando nossos resultados das teorias de assimetria de informação. Já as variáveis que exprimem características dos investidores mostraram-se bastante relevantes para explicar as diferenças nas alocações. Primeiramente, o tipo de investidor mostrou-se uma variável decisiva na alocação. Nas hipóteses testadas, encontramos evidências de que investidores de longo prazo, os chamados Long-Only são beneficiados enquanto investidores de curto prazo, em geral hedge-funds e tesourarias, são penalizados nas alocações. Segundo, a nacionalidade do investidor também exprime papel fundamental na alocação. Investidores norte-americanos são beneficiados enquanto investidores brasileiros são penalizados, outro resultado contrário às teorias de troca de alocação por informação, dado que investidores domésticos, em teoria, deveriam ter maior informação do que estrangeiros. Em realidade, se existe um consenso nesse campo de pesquisa é o de que investidores norte-americanos determinam a direção da grande maioria dos recursos destinados a esse mercado e emitem forte sinalização quando “entram” em negócios dessa natureza ao redor do mundo, o mesmo ocorrendo no caso brasileiro e demonstrado em nossa análise, conforme acima mencionado. Os resultados apenas comprovam que esse tipo de ação de tais investidores tem sido premiado por meio de favorecimento em alocações nas ofertas no mercado brasileiro, principalmente quando controlamos para emissões com alta demanda, os chamados Hot IPO’s. Também encontramos evidências contrárias às teorias de controle. Ao regredir nossa variável Tamanho, encontramos um sinal contrário ao esperado. Isto é, para os dados que dispúnhamos, verificamos o favorecimento de grandes ofertas em detrimento de pequenas, enquanto esperaríamos que os underwriters evitassem concentração de ações, “protegendo” as empresas emissoras de eventuais problemas de liquidez e até potenciais tentativas de hostile take-overs no futuro.