125 resultados para Ferramenta para crescimento
Resumo:
Na presente tese, foi investigado o crescimento térmico de filmes dielétricos (óxido de silício e oxinitreto de silício) sobre carbeto de silício. Além disso, os efeitos da irradiação iônica do SiC antes de sua oxidação, com o intuito de acelerar a taxa de crescimento do filme de SiO2, também foram investigados. A tese foi dividida em quatro diferentes etapas. Na primeira, foram investigados os estágios iniciais da oxidação térmica do SiC: mudanças no ambiente químico dos átomos de Si foram observadas após sucessivas etapas de oxidação térmica de uma lâmina de SiC. A partir desses resultados, em conjunto com a análise composicional da primeira camada atômica da amostra, acompanhou-se a evolução do processo de oxidação nesses estágios iniciais. Na etapa seguinte, foram utilizadas as técnicas de traçagem isotópica e análise por reação nuclear com ressonância estreita na curva de seção de choque na investigação do mecanismo e etapa limitante do crescimento térmico de filmes de SiO2 sobre SiC. Nesse estudo, compararam-se os resultados obtidos de amostras de óxidos termicamente crescidos sobre Si e sobre SiC. Na terceira etapa, foram investigados os efeitos da irradiação iônica do SiC antes de sua oxidação nas características finais da estrutura formada. Finalmente, comparam-se os resultados da oxinitretação térmica de estruturas SiO2/SiC e SiO2/Si utilizando dois diferentes gases: NO e N2O.
Resumo:
Este trabalho apresenta o LIT, uma ferramenta de auxílio ao projeto de circuitos integrados analógicos que utiliza a técnica da associação trapezoidal de transistores (TAT) sobre uma matriz digital pré-difundida. A principal característica é a conversão de cada transistor simples de um circuito analógico em uma associação TAT equivalente, seguido da síntese automática do leiaute da associação séria-paralela de transistores. A ferramenta é baseada na matriz SOT (sea-of-transistors), cuja arquitetura é voltada para o projeto de circuitos digitais. A matriz é formada somente por transistores unitários de canal curto de dimensões fixas. Através da técnica TAT, entretanto, é possível criar associações série-paralelas cujo comportamento DC aproxima-se dos transistores de dimensões diferentes dos unitários. O LIT é capaz de gerar automaticamente o leiaute da matriz SOT e dos TATs, além de células analógicas básicas, como par diferencial e espelho de corrente, respeitando as regras de casamento de transistores. O cálculo dos TATs equivalentes também é realizado pela ferramenta. Ela permite a interação com o usuário no momento da escolha da melhor associação. Uma lista de possíveis associações é fornecida, cabendo ao projetista escolher a melhor. Além disso, foi incluído na ferramenta um ambiente gráfico para posicionamento das células sobre a matriz e um roteador global automático. Com isso, é possível realizar todo o fluxo de projeto de um circuito analógico com TATs dentro do mesmo ambiente, sem a necessidade de migração para outras ferramentas. Foi realizado também um estudo sobre o cálculo do TAT equivalente, sendo que dois métodos foram implementados: aproximação por resistores lineares (válida para transistores unitários de canal longo) e aproximação pelo modelo analítico da corrente de dreno através do modelo BSIM3. Três diferentes critérios para a escolha da melhor associação foram abordados e discutidos: menor diferença de corrente entre o TAT e o transistor simples, menor número de transistores unitários e menor condutância de saída. Como circuito de teste, foi realizado o projeto com TATs de um amplificador operacional de dois estágios (amplificador Miller) e a sua comparação com o mesmo projeto utilizando transistores full-custom. Os resultados demonstram que se pode obter bons resultados usando esta técnica, principalmente em termos de desempenho em freqüência. A contribuição da ferramenta LIT ao projeto de circuitos analógicos reside na redução do tempo de projeto, sendo que as tarefas mais suscetíveis a erro são automatizadas, como a geração do leiaute da matriz e das células e o roteamento global. O ambiente de projeto, totalmente gráfico, permite que mesmo projetistas analógicos menos experientes realizem projetos com rapidez e qualidade. Além disso, a ferramenta também pode ser usada para fins educacionais, já que as facilidades proporcionadas ajudam na compreensão da metodologia de projeto.
Resumo:
O desenvolvimento de artefatos de software é um processo de engenharia, como todo processo de engenharia, envolve uma série de etapas que devem ser conduzidas através de uma metodologia apropriada. Para que um determinado software alcance seus objetivos, as características conceituais e arquiteturais devem ser bem definidas antes da implementação. Aplicações baseadas em hiperdocumentos possuem uma característica específica que é a definição de seus aspectos navegacionais. A navegação é uma etapa crítica no processo de definição de softwares baseados em hiperdocumentos, pois ela conduz o usuário durante uma sessão de visita ao conteúdo de um site. Uma falha no processo de especificação da navegação causa uma perda de contexto, desorientando o usuário no espaço da aplicação. Existem diversas metodologias para o tratamento das características de navegação de aplicações baseadas em hiperdocumentos. As principais metodologias encontradas na literatura foram estudadas e analisadas neste trabalho. Foi realizada uma análise comparativa entre as metodologias, traçando suas abordagens e etapas. O estudo das abordagens de especificação de hiperdocumentos foi uma etapa preliminar servindo como base de estudo para o objetivo deste trabalho. O foco é a construção de uma ferramenta gráfica de especificação conceitual de hiperdocumentos, segundo uma metodologia de modelagem de software baseado em hiperdocumentos. O método adotado foi o OOHDM (Object-Oriented Hypermedia Design Model), por cercar todas as etapas de um processo de desenvolvimento de aplicações, com uma atenção particular à navegação. A ferramenta implementa uma interface gráfica onde o usuário poderá modelar a aplicação através da criação de modelos. O processo de especificação compreende três modelos: modelagem conceitual, modelagem navegacional e de interface. As características da aplicação são definidas em um processo incremental, que começa na definição conceitual e finaliza nas características de interface. A ferramenta gera um protótipo da aplicação em XML. Para a apresentação das páginas em um navegador Web, utilizou-se XSLT para a conversão das informações no formato XML para HTML. Os modelos criados através das etapas de especificação abstrata da aplicação são exportados em OOHDM-ML. Um estudo de caso foi implementado para validação da ferramenta. Como principal contribuição deste trabalho, pode-se citar a construção de um ambiente gráfico de especificação abstrata de hiperdocumentos e um ambiente de implementação de protótipos e exportação de modelos. Com isso, pretende-se orientar, conduzir e disciplinar o trabalho do usuário durante o processo de especificação de aplicações.
Resumo:
Nos ultimos anos, com a crescente popularização das redes de computadores baseadas no protocolo IP, desde pequenas redes até metropolitanas começaram a se agrupar e a fazer do que hoje se conhece como a rede mundial de computadores.Apesar dos benefícios de comunicação e troca de informação da Internet, esse feômeno global também trouxe problemas de segurança, pois a origem e estrutura dos protocolos utilizados na comunicação entre as diversas máquinas limitam as possibilidades de prevenir, identificar ou detectar possíveis ataques ou intrusos. Assim, várias ferramentas surgiram para prevenir e auxiliar na tarefa de identicar problemas de segurança nas redes como firewalls, sniffers e sistemas de detecção de intrusão. Apesar dos benefícios trazidos por essas novas tecnologias, surgiram muitas dúvidas referentes a segurança que esses recursos proporcionam. Afinal, o desenvolvimento e validação desses sistemas são procedimentos bastante complexos e, freqüentemente, esses sitemas têm se tornado o alvo primário de um atacante. O resultado disso, não raramente, é uma falsa noção de segurança devido à utilização inadequada desses mecanismos, o que é, normalmente, mais prejudicial do que a simples inexistência de segurança em uma organização, mas cujas falhas são conhecidas por seus administradores. A realização de testes para verificação da segurança de uma organização é uma atividade fundamental a fim de alcançar um ambiente operacional seguro e de verificar a correta aplicação dos requisitos de segurança de uma organização.O uso de testes permite a uma empresa verificar com precisão a postura de segurança utilizada em seus sistemas ao mesmo tempo em que permite visualizar a sua rede da mesma maneira que um atacante a visualizaria. Ao visualizar a rede como atacante, pode-se verificar com que facilidade obtém-se informações da rede, quais suas fragilidades e a dificuldade que se tem para invadí-la. Assim, obtém-se uma visão mais realista da segurança de uma organização. Além de técnicas para a avaliação, é muito importante que se possua ferramentas para a realização desses testes. Assim, é possível automotizar a realização de testes e verificar com maior facilidade a existência de problemas em uma rede. A existência de ferramentas que testem sistemas de segurnaça é extremamente importante e necessária, pois, afinal, a segurança de toda uma rede pode depender fortemente de algum desses sistemas. Este trabalho apresenta as técncias existentes para a injecção de falhas visando verificar as que são mais eficientes para a valiação de sistemas de segurança de rede. Adicionalmente são apresentadas algumas técnicas para o teste de mecanismos de segurança e algumas ferramentas existentes para a realizão de tais testes. A partir desses estudos, é apresentado um modelo de ferramenta adequando as funções de um sistema de injeção de falhas ao teste de mecanismos de segurança em rede. Um protótipo essa ferramenta foi desenvolvido e é apresentado neste trabalho. Esse protótipo permite o envio e o recebimento de pacotes da pilha TCP/IP, podendo testar problemas em protocolos e sistemas utilizados na rede. E, através da utilização de plug-ins, permite que diversos tipos de ataque mais sofisticados possam ser realizados.
Resumo:
O grande objetivo em finanças para os gestores das empresas é o de proporcionar aumento de valor aos acionistas. Para que isso possa ser efetivamente implementado, é necessário que o investimento proporcione para o acionista um retorno superior ao custo de oportunidade do seu capital, contemplando o risco do investimento, mensurado através de um modelo de avaliação. Este trabalho apresenta os principais conceitos de avaliação de ativos, destacando a criação de valor como a medida mais importante do desempenho da empresa. O fluxo de caixa descontado é abordado como o método que melhor resume o conceito de criação de valor, destacando-se o fluxo de caixa do acionista e o fluxo de caixa da empresa. Também são apresentados a forma de apuração dos fluxos de caixa, a estimativa das taxas de crescimento, algumas situações especiais onde o fluxo de caixa descontado necessita de adaptações e outros métodos alternativos de análise de investimentos, sendo que nenhum deles é capaz de superar a técnica do valor presente líquido – VPL, pois o método do VPL utiliza todos os fluxos de caixa de um projeto, descontando-os corretamente de acordo com o custo de oportunidade do capital O estudo mostra, ainda, uma rápida explanação das principais técnicas de mensuração do risco e do retorno exigido pelos investidores ou proprietários segundo a teoria de valor, como o CAPM (Capital Asset Price Model), o APM (Arbitrage Pricing Model) e o Multifatorial, destacando-se entre eles a dificuldade de mensuração do custo do capital próprio em empresas de capital fechado no Brasil, para a devida apuração da taxa de desconto. A metodologia proposta é aplicada na avaliação do investimento, em um novo ponto de venda, realizado por uma pequena empresa familiar do setor supermercadista. Dessa forma, ao final do estudo, propõe-se a utilização de uma ferramenta gerencial, baseada no fluxo de caixa descontado, para avaliação de futuros investimentos da empresa, buscando-se assim a maximização de valor para o acionista ou proprietário.
Resumo:
As redes de computadores experimentam um grande crescimento não apenas em tamanho, mas também no número de serviços oferecidos e no número de protocolos de alto nível e aplicações que são executados sobre elas. Boa parte desses software (ex.: ICQ e Napster), em geral, não está diretamente ligada a aplicações críticas, mas o seu uso não controlado pode degradar o desempenho da rede. Para que se possa medir o impacto dos mesmos sobre a infra-estrutura, mecanismos de gerência ligados à contabilização e caracterização de tráfego são desejáveis. Por outro lado, alguns protocolos, serviços e aplicações (ex. servidores DNS e Web) suportam aplicações e precisam ser monitorados e gerenciados com maior atenção. Para essa classe de software de rede, a simples contabilização e caracterização de tráfego não é suficiente; tarefas de gerência como teste de serviços, detecção e manipulação de falhas, medição de desempenho e detecção de intrusão são importantes para garantir alta disponibilidade e eficiência da rede e aplicações. As ferramentas existentes para essa finalidade são, entre aspectos, (a) não integradas (necessidade de uma ferramenta para monitorar cada aplicação), (b) centralizadas (não oferecem suporte à distribuição de tarefas de gerenciamento) e (c) pouco flexíveis (dificuldade em gerenciar novos protocolos, serviços e aplicações). Nesse contexto, a tese propõe uma arquitetura, centrada na monitoração passiva em temporal do tráfego de rede, para gerenciamento distribuído de protocolos de alto nível, serviços e aplicações em rede. Baseada da MIB (Management Information Base) Script do IETF (Internet Engineering Task Force), a arquitetura Trace oferece mecanismos para a delegação de tarefas de gerenciamento a gerentes intermediários, que interagem com agentes de monitoração e agentes de ação para executá-las. A tese propõe também PTSL (Protocol Trace Specification Language), uma linguagem gráfica/textual criada para permitir que gerentes de rede especificam as interações de protocolos (traços) que lhes interessam monitorar. As especificações são usadas pelso gerentes intermediários para programar os agentes de monitoração. Uma vez programadas, esses agentes passam a monitorar a ocorrência dos traços.As informações obtidas são analisadas pelos agentes intermediários, que podem requisitar de ação a execução de procedimentos (ex: scripts Perl), possibilitando a automação de diversas tarefas de gerenciamento. A arquitetura proposta é validada por um protótipo: a plataforma de gerenciamento Trace.
Resumo:
A análise de um algoritmo tem por finalidade melhorar, quando possível, seu desempenho e dar condições de poder optar pelo melhor, dentre os algoritmos existentes, para resolver o mesmo problema. O cálculo da complexidade de algoritmos é muito dependente da classe dos algoritmos analisados. O cálculo depende da função tamanho e das operações fundamentais. Alguns aspectos do cálculo da complexidade, entretanto, não dependem do tipo de problema que o algoritmo resolve, mas somente das estruturas que o compõem, podendo, desta maneira, ser generalizados. Com base neste princípio, surgiu um método para o cálculo da complexidade de algoritmos no pior caso. Neste método foi definido que cada estrutura algorítmica possui uma equação de complexidade associada. Esse método propiciou a análise automática da complexidade de algoritmos. A análise automática de algoritmos tem como principal objetivo tornar o processo de cálculo da complexidade mais acessível. A união da metodologia para o pior caso, associada com a idéia da análise automática de programas, serviu de motivação para o desenvolvimento do protótipo de sistema ANAC, que é uma ferramenta para análise automática da complexidade de algoritmos não recursivos. O objetivo deste trabalho é implementar esta metodologia de cálculo de complexidade de algoritmos no pior caso, com a utilização de técnicas de construção de compiladores para que este sistema possa analisar algoritmos gerando como resultado final a complexidade do algoritmo dada em ordens assintóticas.
Resumo:
Esta dissertação trata do desenvolvimento e avaliação de uma ferramenta computacional multimeios utilizada no auxílio ao aprendizado de projetos de experimentos básicos. A busca da sociedade por novos produtos e processos, cada vez melhores e de forma mais rápida, determina a necessidade da aplicação de técnicas mais objetivas e eficientes para se alcançar estes desafios. O trabalho de execução visando contemplar o mencionado anteriormente, procedeu-se da seguinte forma: (i) revisão e descrição dos conceitos relativos à Engenharia da Qualidade e ao Planejamento, Projeto e Análise de Experimentos (PPAE); (ii) identificação e descrição de métodos ou regras de planejamento experimental; (iii) investigação e identificação dos projetos e análises de experimentos considerados básicos; (iv) desenvolvimento de uma ferramenta multimeios para o auxílio ao aprendizado de PPAE; (v) avaliação da ferramenta desenvolvida, através de um estudo de caso; (vi) conclusões relacionadas ao trabalho desenvolvido. A abordagem adotada para apresentar a técnica experimental, destacou o planejamento, do projeto e análise, detalhando separadamente os mesmos. Este passo almejou, de forma objetiva, identificar aqueles projetos e análises básicos, iniciais ao aprendizado. A elaboração e posterior avaliação da ferramenta multimeios permitiu perceber a potencialidade da mesma, como um meio instrucional para o tema específico de projetos de experimentos, sendo sua aplicação de relativa facilidade. A avaliação mostrou ainda que existe muito a se avançar nos meios físicos de apresentação/execução deste tipo de ferramenta multimeios.
Resumo:
Considerando que o milho não responde somente ao nitrogênio (N) mineral aplicado, mas também ao N total no solo, ao sistema de cultura que antecede a semeadura, à relação C/N das espécies precedentes e ao tipo de preparo do solo, faz-se necessário quantificar as respostas da cultura, em aspectos relacionados à fotossíntese, ao crescimento e à produção, baseando-se na quantidade de N disponível. Neste enfoque, foram conduzidos experimentos de campo para quantificar o N disponível ao milho em função de diferentes sistemas de preparo de solo, sistemas de cultura e doses de N mineral. Avaliou-se o efeito de diferentes níveis de N disponível sobre o rendimento de grãos, a produção de matéria seca aérea (MS), o índice de área foliar (IAF), o teor de N na planta, o teor de N foliar, o teor de clorofila e a taxa fotossintética do milho. Avaliou-se, também, a interação entre diferentes níveis de N e água sobre o teor de clorofila, a condutância estomática, o potencial de água na folha e a taxa fotossintética do milho. As avaliações foram feitas em sistemas de plantio direto e de preparo convencional, associados aos sistemas de cultura A/M – aveia/milho, V/M – vica/milho e A+V/M+C – aveia+vica/milho+caupi, com doses entre 0 e 180 kg ha-1 de N mineral e em tratamentos com e sem irrigação. Os tratamentos com A/M apresentaram menor quantidade de N disponível (entre 27 e 123 kg ha-1) e aqueles com leguminosas (V/M e A+V/M+C) tiveram quantidades superiores (entre 50 e 147 kg ha-1). A disponibilidade de N influenciou o IAF, o teor de N na planta, a MS e o rendimento de grãos, com valores inferiores nos tratamentos com menor quantidade de N disponível. As menores taxas de fotossíntese ocorreram nos tratamentos com menores teores de clorofila total, comprovando a dependência da fotossíntese ao teor de clorofila, e de ambos ao teor de N disponível. Condições de restrição hídrica demonstraram maior influência sobre a taxa de fotossíntese e a condutância foliar, do que a disponibilidade de N.
Resumo:
Dentre as principais áreas que constituem a Ciência da Computação, uma das que mais influenciam o mundo atual é a Engenharia de Software, envolvida nos aspectos científicos e tecnológicos do desenvolvimento de software. No desenvolvimento de software, a fase de especificação dos requisitos é uma das mais importantes, visto que erros não detectados nesta são propagados para as fases posteriores. Quanto mais avançado estiver o desenvolvimento, mais caro custa reparar um erro introduzido nas fases iniciais, pois isto envolve reconsiderar vários estágios do desenvolvimento. A prototipação permite que os requisitos do software sejam validados logo no início do desenvolvimento, evitando assim a propagação de erros. Paralelamente, a utilização de métodos formais visa revelar inconsistências, ambigüidades e falhas na especificação do software, que podem caso contrário, não serem detectadas. Usar a prototipação de software juntamente com uma notação formal enfatiza a especificação do problema e expõe o usuário a um sistema “operante” o mais rápido possível, de modo que usuários e desenvolvedores possam executar e validar as especificações dos requisitos funcionais. O objetivo principal deste trabalho é instanciar uma técnica da área de Prototipação de Software que capacite o engenheiro de software gerar automaticamente protótipos executáveis a partir de especificações formais de tipos abstratos de dados, na notação PROSOFT-algébrico, visando a validação dos requisitos funcionais logo no início do desenvolvimento do software. Para tanto foi proposto um mapeamento da linguagem PROSOFT-algébrico para OBJ. Como OBJ possui um eficiente sistema de reescrita de termos implementado, a utilização deste propicia a prototipação de tipos abstratos de dados, especificados em PROSOFT-algébrico. Os componentes envolvidos na definição deste trabalho, assim como o mapeamento entre as linguagens, foram especificados algebricamente e implementados no ambiente de desenvolvimento de software PROSOFT. A implementação serviu para validar o mapeamento proposto através de dois estudos de caso. Por fim, são apresentadas as conclusões alcançadas e as atividades adicionais vislumbradas a partir do trabalho proposto.
Resumo:
Este trabalho apresenta um estudo de camada “duplex” em aços para trabalho à quente da classe AISI H13, com enfoque em matrizes de injeção de ligas de alumínio, visando otimizar a vida das matrizes atuando tanto sobre os mecanismos de ataque superficial da matriz pelo alumínio como sobre a formação de trincas por fadiga térmica. O tratamento duplex consistiu em nitretação à plasma, com gás contendo 5% de nitrogênio e diferentes parâmetros de tempos e temperaturas, sendo as amostras posteriormente revestidas com nitreto de titânio (TiN) ou nitreto de cromo (CrN). As camadas nitretadas foram avaliadas através de análises metalográficas, perfis de dureza e difração de raios X, buscando caracterizar e qualificar a camada nitretada. Tendo sido observado na difração de raios X a presença de camada de compostos (nitretos de ferro ε e γ’) mesmo com a utilização de gás pobre em nitrogênio, foram também avaliados substratos nitretados sem a remoção mecânica dos nitretos e com um polimento para remoção destes antes da deposição. A rugosidade dos substratos nitretados com e sem a realização do polimento mecânico também foram determinados, buscando relação deste parâmetro com os resultados obtidos. O conjunto camada nitretada e depósitos (TiN ou CrN) com e sem o polimento mecânico após-nitretação foram avaliados em termos de adesão com ensaios de indentação Rockwell C com análise em microscopia eletrônica de varredura (qualitativamente) e com o teste do risco (quantitativamente) avaliando tanto as cargas críticas para a falha do filme como o modo de falha também em microscopia eletrônica de varredura. Além disso, foram realizados testes de fadiga térmica em banho de alumínio para simulação e avaliação do desempenho da camada “duplex” em condições de trabalho, bem como foram testadas duas condições de nitretação com TiN ou CrN em regime industrial. Os resultados mostram ganhos de adesão crescentes com o aumento dos tempos e das temperaturas de nitretação, além de maiores ganhos com a remoção mecânica (polimento) do substrato nitretado antes da deposição dos filmes. O comportamento, frente às condições de trabalho também foi superior para condições de nitretação com maiores tempos e temperaturas, tanto nos ensaios de laboratório com nos testes em regime industrial.
Resumo:
A presente tese tem como objetivo apresentar e discutir as possíveis relações entre macrotendências de organização do trabalho e possibilidade de crescimento humano em uma empresa de cerâmica de revestimento de Santa Catarina. O interesse pela temática decorre dos reflexos das novas formas organizacionais sobre os que trabalham e o desconhecimento de pesquisas que contemplem a mesma problemática. O método utilizado para articular os objetivos foi o estudo de caso, qualitativo, delineado como exploratório/descritivo, com a coleta de dados primários e secundários A base teórica que deu suporte à tese tratou do contexto do trabalho, das macrotendências organizacionais e da possibilidade de crescimento humano. Para explicitar as macrotendências, apresentaram-se concepções sobre a Qualidade Total, as Empresas Transfuncionais, as Organizações de Aprendizagem, as Organizações Qualificantes, a Reengenharia e as Organizações Cooperativas. Nas possibilidades de crescimento humano foram abordadas a Qualificação, a Carreira, as Competências e o Desenvolvimento Pessoal. Complementou-se com abordagens sobre Subjetividade que questionam a linearidade predominante nos indicadores de crescimento humano. As articulações entre a teoria e o caso estudado mostram que a Qualidade Total é a forma de gestão preponderante na empresa, norteada pela certificação dos produtos. A Aprendizagem Organizacional encontra-se pouco sistematizada e as práticas nessa direção se mostram diferenciadas entre os níveis hierárquicos. As demais macrotendências estudadas são pouco identificadas na gestão da organização. No que tange à possibilidade de crescimento humano, verificou-se que a qualificação está fortemente associada à escolaridade e ao trabalho multifuncional. A carreira é pouco formalizada na empresa e o direcionamento para a gestão por competências deve amenizar as expectativas de ascensão. A possibilidade de desenvolvimento pessoal está relacionada com o desenvolvimento profissional ou o autodesenvolvimento. A análise mostra sujeitos identificados com a idéia da qualidade e que se referem à diversidade que o trabalho engendra atualmente. O referencial que deu suporte ao estudo reforça essa característica, uma vez que a possibilidade de elaboração de um modelo genérico adequado de administração de empresas parece cada vez mais distante.
Resumo:
Este trabalho procura investigar se a terceirização de alguns subsistemas de Recursos Humanos (RH), de empresas do setor metal-mecânico do Rio Grande do Sul, possibilita maior desenvolvimento e crescimento para as organizações e os funcionários. Contextualizou-se o tema, quando se abordou a flexibilização como resposta à globalização dos mercados, a terceirização, como ferramenta da flexibilização e aspectos referentes ao novo papel de RH e a terceirização neste setor. A pesquisa é de natureza quantitativa/qualitativa. Desenvolve-se inicialmente um levantamento de dados para identificar quais as empresas do setor metal-mecânico e associadas ao SINMETAL estão adotando a estratégia de terceirização no setor de RH. Posteriormente, a partir dos resultados da etapa de levantamento de dados, escolheram-se duas empresas fabricantes de autopeças para desenvolver os estudos de casos. Os dados foram coletados através de entrevistas semi-estruturadas e análise documental, como forma de conhecer a estratégia de terceirização utilizada nos subsistemas de RH e os resultados que as empresas obtiveram. Observou-se que as duas empresas apresentam diferentes métodos para manterem-se competitivas no mercado. A primeira focaliza sua gestão no envolvimento de seus funcionários, investindo em formação e treinamento e estimulando empregos duradouros. A segunda mostra-se mais voltada a medidas de curto prazo, privilegiando o enxugamento da estrutura, redução de custos e a manutenção da certificação ISO/QS. Quanto à terceirização no setor de RH, ambas utilizam-se no subsistema de recrutamento e seleção, diferenciando-se na forma de implantação do processo. A primeira montou um “serviço de psicologia” terceirizado, na própria empresa. A segunda empresa estudada, terceiriza o serviço de recrutamento e seleção por meio de consultorias, estabelecendo apenas uma relação de fornecedor de serviços. Conclui-se que a terceirização no setor de RH é uma estratégia, basicamente utilizada para o subsistema de recrutamento e seleção, que acarreta insegurança e instabilidade nas relação de trabalho, mas dependendo da forma como é empregada pode oportunizar o desenvolvimento de um trabalho especializado, agregando valor tanto para o profissional como para a empresa cliente.
Resumo:
Teoria das Categorias é uma ramificação da Matemática Pura relativamente recente, tendo sua base sido enunciada ao final da primeira metade do século XX. Embora seja Teoria de grande expressividade, sua aplicação efetiva tem encontrado até o momento grandes obstáculos, todos decorrência natural da brevidade de sua História. A baixa oferta de bibliografia (e predominantemente em língua inglesa) e a falta de uniformidade na exposição do que sejam os tópicos introdutórios convergem e potencializam outro grande empecilho à sua propagação - a baixa oferta de cursos com enfoque em Teoria das Categorias. Consegue, a despeito destes obstáculos, arrebanhar admiradores em inúmeros centros de reconhecida excelência técnica e científica. Dentre todas as áreas do conhecimento, atrai em especial a atenção da Ciência da Computação, por características como independência de implementação, dualidade, herança de resultados, possibilidade de comparação da expressividade de outros formalismos, forte embasamento em notação gráfica e, sobretudo, pela expressividade de suas construções [MEN2001]. No Brasil, já conta com o reconhecimento de seu papel no futuro da Ciência da Computação por parte de instituições como SBC e MEC. Os obstáculos aqui descritos, entretanto, ainda necessitam ser transpostos. O presente trabalho foi desenvolvido visando contribuir nesta tarefa. O projeto consiste em uma iniciativa aplicada em Ciência da Computação, a qual visa oportunizar o franco acesso aos conceitos categoriais introdutórios: uma aplicação de computador que faça amplo uso de representação diagramática para apresentar a proposição de conceitos básicos do grupo de pesquisa em Teoria das Categorias do Instituto de Informática da UFRGS. A proposição e implementação de uma ferramenta, embora não constitua iniciativa inédita no mundo, até onde se sabe é a segunda experiência desta natureza. Ademais, vale destacar que os conceitos tratados, assim como os objetivos visados, são atendidos de forma única e exclusiva por esta aplicação. Conjuntamente, vislumbra-se a aplicação desenvolvida desempenhando importante papel de agente catalisador na propagação da visão dos Grupos de Pesquisa em Teoria das Categorias da UFRGS e da PUC/RJ do que sejam os "conceitos categoriais introdutórios".
Resumo:
A modificação do arranjo de plantas altera a competição intraespecífica pelos recursos disponíveis para o crescimento e rendimento de grãos da soja. O experimento foi conduzido na Estação Experimental Agronômica da UFRGS, em Eldorado do Sul, RS, na estação de crescimento 2000/01, objetivando avaliar como o arranjo de plantas modifica a competição intraespecífica e de que forma isto se reflete no crescimento, no potencial de rendimento (PR) e no rendimento de grãos da soja e seus componentes por estrato do dossel. Utilizou-se a cultivar ‘BRS 137’ (semiprecoce) em semeadura direta. O delineamento experimental foi de blocos casualizados com parcelas sub-subdivididas e quatro repetições. Os tratamentos constaram de regimes hídricos (irrigado e não irrigado), espaçamentos entre linhas (20 e 40 cm) e populações de plantas (20, 30 e 40 plantas/m2). A irrigação aumentou a taxa de enchimento de grãos e, como conseqüência, o peso do grão, resultando em maior PR no início do enchimento de grãos (R5) e rendimento de grãos na maturação (R8). O arranjo de plantas com 20 cm, independente da população, apresentou, em média, maior PR em R5 em relação ao arranjo com 40 cm, o que também foi verificado no estrato médio do dossel. Verificou-se também diminuição linear no PR com o aumento da população de plantas, dentro do espaçamento de 20 cm. Na maturação, o arranjo de plantas que proporcionou maior rendimento de grãos foi a associação do espaçamento de 20 cm com a população de 20 plantas/m2. Houve decréscimo linear no rendimento de grãos com o aumento da população de plantas no espaçamento reduzido. Respostas similares foram obtidas nos estratos médio e inferior do dossel. Estes resultados são explicados pelo maior crescimento inicial (índice de área foliar, massa seca e taxa de crescimento da cultura) da soja, número de nós férteis e legumes férteis/m2, obtidos nesses arranjos, principalmente no estrato médio e inferior do dossel. Arranjos de plantas que possibilitem melhor distribuição das plantas na área amenizam a competição intraespecífica, proporcionando maior crescimento inicial da soja, que resulta em maior rendimento de grãos.