999 resultados para controle por realimentação dinâmica de saída


Relevância:

30.00% 30.00%

Publicador:

Resumo:

O herbicida metribuzin é recomendado para o controle de plantas daninhas na cultura de cana-de-açúcar. Entretanto, seu comportamento em áreas com colheita mecânica, que deixa grande quantidade de palha sobre o solo, não é bem conhecido. Este trabalho objetivou avaliar a dinâmica do herbicida metribuzin aplicado sobre diferentes quantidades de palha de cana-de-açúcar, períodos e intensidades de chuvas após a aplicação. Foram realizados três ensaios para avaliar a dinâmica do metribuzin aplicado sobre a palha de cana-de-açúcar. No primeiro, foi avaliada a interceptação do herbicida por 0, 1, 2,5, 5, 7,5, 10, 15 e 20 t de palha de cana-de-açúcar por hectare. No segundo, avaliou-se a lixiviação do metribuzin em 5, 10, 15 e 20 t de palha por hectare sob simulação de chuva de 2,5, 5, 10, 15, 20, 35, 50 e 100 mm, um dia após a aplicação (DAA). No terceiro, foi avaliado o efeito dos intervalos de tempo entre a aplicação do herbicida e a primeira chuva na lixiviação do metribuzin (0, 1, 7, 14 e 28 dias) em 10 t de palha por hectare, em função das mesmas precipitações simuladas no segundo ensaio. Os resultados obtidos no segundo e terceiro ensaios foram ajustados pelo modelo de Mitscherlich. A quantificação do herbicida foi realizada por cromatografia líquida de alta eficiência. A quantidade de metribuzin que transpõe as diferentes quantidades de palha com simulação acumulada de 100 mm de chuva é diferenciada, sendo maior para 5 t ha-1 e menor para quantidades maiores, até 20 t ha-1. A simulação média de chuvas equivalentes a de 20 a 30 mm iniciais é suficiente para promover uma transposição maior que 99% do metribuzin. Este herbicida é retido quando aplicado sobre a palha de cana-de-açúcar e permanece por períodos de até 28 DAA sem chuva.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O mapeamento e a caracterização da distribuição espacial de plantas daninhas por meio da agricultura de precisão, associada a levantamentos fitossociológicos, têm sido utilizados no controle localizado da infestação. O presente trabalho avaliou a incidência e a dinâmica de plantas daninhas, além da distribuição espacial em distintos sistemas de mobilização do solo, na cultura do sorgo forrageiro. O experimento foi conduzido em Petrolina-PE. Os tratamentos constaram de quatro sistemas de mobilização do solo: sem preparo primário, grade tandem mais arado de aivecas, grade off-set de discos de 0,61 m e grade tandem mais escarificador. A coleta de dados ocorreu na cultura do sorgo forrageiro aos 110 dias após emergência, em uma área retangular de 20 x 12 m (240 m²) com malha regular de 4 x 3 m, referenciadas em coordenadas x e y. A caracterização fitossociológica foi realizada pela avaliação da densidade, frequência, abundância, dominância e índice de valor de importância das espécies, e a variabilidade espacial, por meio da geoestatística com a construção de mapas de isolinhas. Cenchrus echinatus teve maior incidência e índice de valor de importância. O mapeamento de plantas daninhas tem relevância para a aplicação de métodos de controle, principalmente quando aliado ao levantamento fitossociológico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho foi conduzido com o objetivo de implementar um modelo computacional empregando a linguagem de simulação EXTEND TM para: a) simular a dinâmica de atividades de um matadouro-frigorífico de aves; e b) conduzir experimentos de análise de sensibilidade. Para tanto, foi implementado um modelo dinâmico, estocástico e discreto. O sistema real modelado está localizado na região sudoeste do Paraná, onde são abatidas cerca de 500000 aves por dia, empregando três linhas de processamento operando em três turnos diários. Na validação do modelo foram coletados dados relativos a três turnos e comparadas as variáveis de saída obtidas a partir do sistema real e as geradas pelo modelo, as quais foram: i) tempo de processamento; ii) peso vivo total; iii) peso vivo aproveitado; iv) peso de subproduto; v) peso da produção total; vi) peso do frango inteiro; e vii) peso total dos cortes. O modelo implementado demonstrou ser aplicável, uma vez que os erros médios percentuais foram inferiores a 1,13%. O experimento de análise de sensibilidade conduzido, mediante as alterações das velocidades de processamento das linhas em 7000, 8000 e 9000 frangos h-1, apresentou os seguintes valores médios para a variável tempo de processamento: 8,69; 7,86 e 7,86 horas, respectivamente. Além disso, o experimento demonstrou que a velocidade de processamento de 9000 frangos h-1 não implica na direta redução do tempo de processamento, pois a cadência de chegada das cargas pode ter ocasionado períodos de ociosidade do matadouro-frigorífico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho teve como motivação buscar as causas e apresentar alternativas de soluções que busquem sanar ou reduzir o problema de desgaste localizado, produzido pela erosão das cinzas, nos tubos do economizador das caldeiras de uma usina termoelétrica a carvão. Para este fim foi construído um modelo em escala de parte da caldeira, reproduzindo o duto curvo de retorno dos gases e, na saída do mesmo, um banco de barras de seção circular, simulando o banco de tubos do economizador. Medições de velocidade, utilizando uma sonda tipo tubo de Pitot e anemômetro de fio quente, medições do campo de pressão nas paredes e visualização do escoamento utilizando fios de lã foram aplicados para a análise do escoamento nas condições existentes na usina e nas configurações modificadas, propostas segundo critérios de controle da camada limite. A análise dos dados, comparada com medições de desgaste localizado na caldeira, levaram à identificação do processo hidrodinâmico existente e os efeitos resultantes nas modificações propostas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho analisa o impacto do Programa de Qualidade Total no Controle Organizacional da Cooperativa Regional Tritícola Serrana Ltda – COTRIJUÍ - Unidade de Dom Pedrito, RS. Tomou-se por base a abordagem estruturalista, tratando-se dos aspectos contingenciais sistêmicos de coordenação e controle. Adotou-se a classificação dada por Mintzberg (1995): ajustamento mútuo, supervisão direta e a padronização (habilidades, processos de trabalho e resultados), que foram analisados nos níveis técnico, gerencial e de diretoria. A COTRIJUÍ/Dom Pedrito, RS, unidade da COTRIJUÍ/Ijuí, é uma organização cooperativa que atua na área de recebimento, de secagem, de armazenagem, de industrialização e de comercialização de arroz beneficiado e seus sub-produtos. O método do estudo de caso caracteriza esta pesquisa. Os dados, coletados através de entrevista semiestruturada, contatos informais, análise documental e observação direta, foram interpretados de forma qualitativa. Dentre os resultados encontrados, a COTRIJUÍ/Dom Pedrito vem buscando ajustar sua estrutura às contingências do ambiente participando da dinâmica da competição instável e imprevisível, passando pelo desafio da conquista de mercados e da No nível técnico, o maior efeito se deu no mecanismo de PADRONIZAÇÃO DO PROCESSO DE TRABALHO, que passou a ser mais utilizado. A SUPERVISÃO DIRETA, porém, mesmo depois da introdução do Programa de Qualidade Total, permaneceu inalterada, tornando os demais mecanismos menos importantes, uma vez que o superior hierárquico manteve-se com o poder de controlar seus subordinados. No gerencial, a PADRONIZAÇÃO DAS HABILIDADES se apresentou como sendo o mecanismo mais utilizado, seguido da PADRONIZAÇÃO DO PROCESSO DE TRABALHO que também se intensificou, uma vez que houve um aumento significativo dos controles dos processos. No nível de diretoria, antes da introdução do Programa de Qualidade Total, a SUPERVISÃO DIRETA era o mecanismo que caracterizava este nível, já que a tomada de decisão era centralizada na pessoa do gerente geral que decidia todas as questões referentes à unidade. Com a constituição do Comitê de Crédito e a introdução do Programa de Qualidade Total o AJUSTAMENTO MÚTUO passou a ser praticamente o único mecanismo utilizado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tolerância a falhas é um dos aspectos mais importantes a serem considerados no desenvolvimento de aplicações, especialmente com a participação cada vez maior de sistemas computacionais em áreas vitais da atividade humana. Dentro deste cenário, um dos fatores a serem considerados na persecução deste objetivo é o gerenciamento de atomicidade. Esta propriedade, por sua vez, apresenta duas vertentes principais: o controle de concorrência e a recuperação de estados. Considerando-se a tolerância a falhas e, particularmente, a atomicidade como requisitos com alto grau de recorrência em aplicações, verifica-se a importância de sua reutilização de forma simples e transparente e do estudo de meios de prover tal capacidade. O presente trabalho procurou pesquisar e aplicar meios de produzir soluções reutilizáveis para implementação de programas tolerantes a falhas, mais especificamente de técnicas de controle de atomicidade, utilizando vários paradigmas computacionais. Neste intuito, foram pesquisados mecanismos de introdução de atomicidade em aplicações e suas respectivas demandas, para então extrair critérios de análise dos paradigmas a serem utilizados na implementações das soluções. Buscou-se suporte nestes paradigmas às demandas previamente pesquisadas nos mecanismos de gerenciamento de atomicidade e procurou-se chegar a soluções reutilizáveis mantendo simplicidade de uso, possibilidade de alteração dinâmica, transparência, adaptabilidade e velocidade de desenvolvimento. Devido à existência de uma grande diversidade de situações que requerem diferentes implementações de atomicidade, alguns cenários típicos foram selecionados para aplicação e avaliação das técnicas aqui sugeridas, procurando abranger o maior número possível de possibilidades. Desta maneira, este trabalho comparou situações opostas quanto à concorrência pelos dados, implementando cenários onde ocorrem tanto acesso cooperativo quanto competitivo aos dados. Dentro de cada um dos cenários estudados, buscaram-se situações propícias ao emprego das características dos paradigmas e analisou-se o resultado de sua aplicação quanto aos critérios definidos anteriormente. Várias soluções foram analisadas e comparadas. Além dos mecanismos de gerenciamento de atomicidade, também foram estudados vários paradigmas que pudessem ser empregados na implementação de soluções com alto grau de reutilização e adaptabilidade. As análises e sugestões posteriores às implementações serviram como substrato para conclusões e sugestões sobre a melhor maneira de empregar tais soluções nos cenários atômicos estudados. Com isso, foi possível relacionar características e capacidades de cada paradigma com a melhor situação de demanda de atomicidade na qual os mesmos são aplicáveis, moldando uma linha de soluções que favoreçam sua reutilização. Um dos objetivos mais importantes do trabalho foi, entretanto, observar o funcionamento conjunto destes paradigmas, estudando como os mesmos podem atuar de forma simbiótica e de que forma os conceitos de um paradigma podem complementar os de outro.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O processo de demonstração é axial na construção do conhecimento matemático. Na geometria euclidiana, ele é um dos aspectos que apresenta grandes obstáculos aos alunos. Uma das dificuldades aparece na transição, necessária, entre o conhecimento de natureza empírica, já adquirido, e aquele a ser construído: a geometria euclidiana enquanto modelo teórico, organizado em axiomas, teoremas e demonstrações. Os recursos informáticos hoje disponíveis provocam a busca de estratégias pedagógicas favoráveis à construção deste conhecimento. Entender as suas potencialidades torna-se um objeto de investigação: o que acontece com os processos cognitivos quando ao sujeito em interação com a máquina é possibilitada a concretização de seus construtos e ações mentais, e quando, mediante realimentação imediata, ele é levado a novas reelaborações e construções mentais? E como tais processos concorrem para um novo conhecimento? Esta tese propõe uma engenharia didática, em ambiente de geometria dinâmica, que favorece a ascensão dos alunos em patamar de conhecimento — de empírico a hipotético-dedutivo. Toma-se como referencial a teoria piagetiana, bem como a teoria da situação didática em matemática desenvolvida pela escola francesa. A engenharia se desenrola em três níveis: no primeiro, o propósito é a compreensão do significado e da necessidade de demonstração por via de construções geométricas; no segundo nível, pretende-se o desenvolvimento das primeiras habilidades na produção de demonstrações; e, no terceiro, os problemas propostos ao alunos exigem mais de seus funcionamentos cognitivos no tratamento adequado de uma figura geométrica — trata-se das extensões de desenho e concomitantes apreensões operativas responsáveis pela identificação de subconfigurações geométricas que dão suporte à argumentação dedutiva. Análise a posteriori do desenrolar dos trabalhos dos alunos confirma as expectativas anunciadas na análise a priori apresentada na fase de concepção da situação didática cuja implementação é proposta: o progresso dos alunos na construção de conhecimento em geometria, como modelo matemático, foi expressivo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho apresenta um sistema virtual para suporte ao ensino, denominado SADA. O sistema se baseia na análise do desempenho durante a aprendizagem para implementar técnicas de adaptação para apresentação dos links. Tendo como objetivo principal auxiliar o ensino presencial, e caracterizar as possibilidades para se adaptar a navegação no conteúdo do curso através da forma de apresentação dos links. O SADA utiliza ferramentas computacionais de domínio público na Web, e possui um conjunto de opções para criação e divulgação de cursos com conteúdos didáticos, e questões de múltipla escolha para avaliação do desempenho do aluno. Um sistema de ensino como o SADA, mediado por computador e baseado na Internet (Web), pode ser uma ferramenta complementar ao trabalho do professor, por acrescentar maior dinâmica aos cursos ou disciplinas devido às novas formas de interação com o aluno.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Recentes terremotos e furacões mostraram quão vulneráveis são as estruturas às forças da natureza. Ainda em países desenvolvidos, existe alto risco a desastres naturais. Portanto, um dos principais desafios da Engenharia é a prevenção de desastres mediante o desenvolvimento de conceitos inovadores de projeto, para proteger eficientemente as estruturas, seus moradores e o conteúdo, dos efeitos destrutivos das forças ambientais. O tradicional procedimento de projeto de construções para prevenir falhas catastróficas é baseado na combinação de resistência e capacidade de deformação (ductilidade). Solicitações de baixos níveis provocadas por ventos ou sismos são freqüentemente idealizados com cargas laterais que devem ser resistidas só pela ação elástica da estrutura, enquanto que, em eventos moderados ou severos permite-se certos níveis de dano estrutural e não estrutural, mas não, colapso da mesma. Esta filosofia proporcionou a base da maioria dos códigos de construção (fundados em métodos estáticos equivalentes) desde princípios do século, com resultados satisfatórios. No entanto, a partir do estudo das características dinâmicas das estruturas surgem novos e diversos conceitos de proteção dos sistemas estruturais que tem sido desenvolvidos e ainda estão em expansão, entre os quais pode-se citar a dissipação de energia externa. Esta nova tecnologia consiste em incorporar na estrutura, elementos projetados especificamente para dissipar energia. Com isto, logra-se reduzir as deformações nos membros estruturais primários e portanto, diminui-se a demandada de ductilidade e o possível dano estrutural, garantindo uma maior segurança e vida útil da estrutura Graças a recentes esforços e ao particular interesse da comunidade científica internacional, estudos teóricos e experimentais têm sido desenvolvidos durante a última década com resultados surpreendentes. Hoje já existem sistemas de dissipação de energia aplicados com sucesso em países como Estados Unidos, Itália, Nova Zelândia, Japão e México. Recentemente este campo está-se estendendo na América do Sul. Dentro deste contexto, considerando o beneficio econômico e o melhor desempenho estrutural que implica a incorporação desta nova tecnologia, no presente trabalho abordou-se o estudo deste tipo de sistemas de proteção estrutural orientado ao uso de amortecedores metálicos. O trabalho dividiu-se em três partes principais: a) Projetar e construir um amortecedor metálico que usa as excelentes propriedades do chumbo para dissipar energia. b) Desenvolvimento de metodologias de análise e projeto de estruturas que incorporam amortecimento suplementar a fim de melhorar o seu desempenho estrutural. c) Avaliação da eficiência de sistemas externos de dissipação de energia em estruturas. A primeira parte consistiu em projetar e construir um amortecedor metálico para logo submetê-lo a numerosos testes com diferentes níveis de amplitude de deslocamento e freqüência a fim de avaliar suas propriedades mecânicas e desempenho. Os resultados são considerados altamente satisfatórios. Na segunda parte foram desenvolvidas ferramentas computacionais para pesquisa e docência na área da mecânica estrutural mediante as quais é possível simular o comportamento linear e não linear de estruturas que incorporam amortecimento suplementar Finalmente, apresenta-se um procedimento robusto para avaliar a eficiência dos sistemas dissipadores de energia baseado numa análise da confiabilidade estrutural. Através de vários exemplos com estruturas reais e teóricas se atingem os objetivos traçados no presente trabalho.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O crescimento desordenado das cidades tem gerado muitos problemas de infraestrutura e impactos ao meio ambiente. No que se refere aos recursos hídricos, problemas de abastecimento, poluição e enchentes são cada vez mais constantes. À medida que a cidade se urbaniza e se impermeabiliza, vários são os impactos que vão atuar no sentido de provocar ou agravar as enchentes urbanas. No caso da drenagem urbana é preciso repensar o que vem sendo feito, buscando soluções alternativas às atualmente apresentadas, uma vez que estas não têm se mostrado eficientes. Uma possível solução para estes problemas é a aplicação de medidas de controle do escoamento na fonte, dentre elas o microrreservatório de detenção. Baseando-se na busca de soluções para os problemas citados, este trabalho tem o objetivo geral de verificar experimentalmente o funcionamento de microrreservatórios de detenção no controle da geração do escoamento superficial. Para isso foi construído um módulo experimental nas dependências do IPH, composto por um microrreservatório de 1m3, monitorado através de linígrafos que registram as vazões de entrada e saída, recebendo contribuição de uma área de 337,5m2. O período de monitoramento iniciou em agosto de 2000 e se estendeu até janeiro de 2001. De posse dos dados coletados foi possível fazer uma análise da eficiência deste dispositivo no controle do escoamento superficial, bem como estudar a real necessidade de manutenção da estrutura. Também foi feita uma análise do impacto da presença de sedimentos (folhagens) na água de escoamento nas estruturas de descarga. O trabalho também deixa uma contribuição no que se refere a critérios de projeto e dimensionamento de estruturas desta natureza. Finalmente foi possível concluir que o sistema é eficiente no controle da vazão de pico, porém o reservatório não permitiu um aumento no tempo de resposta da bacia.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo geral desta dissertação é estudar as possibilidades de flexibilização da função de saída do Sistema Hyper-Automaton além das rígidas possibilidades utilizadas atualmente com a utilização direta do HTML, objetivando eliminar as limitações como execução de aplicações proprietárias, caracteres incompatíveis entre browsers, excesso de tráfego na rede, padronizar aplicações, incrementar recursos didáticos, melhorar o suporte a aplicações multimídia atuais e futuras, facilitar a manutenção, implementação e reuso, alterar o layout de saída no browser de maneira dinâmica, explorar outros recursos de links, estabelecer padrões de organização do material instrucional criado pelo professor e muitas outras. Tal sistema anteriormente desenvolvido e funcionando adequadamente, é baseado no formalismo de Autômatos Finitos com Saída como modelo estrutural para organização de hiperdocumentos instrucionais, em especial em cursos na Web, tornando o material hipermídia independente do controle da aplicação. O Sistema Hyper-Automaton, tornou-se portanto, um sistema semi-automatizado para suporte a cursos na Web. Com o desdobramento da pesquisa, esta procurou ir mais além e descreveu possibilidades de não só estudar os aspectos possíveis de formatação de saída do sistema, mas reestruturá-lo totalmente sobre uma linguagem de markup padrão, buscando atualizá-lo tecnologicamente definindo outras possibilidades para que significativos trabalhos futuros possam de maneira mais clara serem alcançados. Dessa maneira, esta dissertação centra-se no estudo da aplicação de formas de flexibilização do Sistema Hyper-Automaton, tanto na parte da estruturação de documentos que são conteúdos instrucionais armazenados, bem como, na forma desse material tornar-se-á disponível através de navegadores WWW compatíveis com as tecnologias propostas, possibilitando o incremento substancial de funcionalidades necessárias para cursos onde a Web é o principal meio. Esta pesquisa dá prosseguimento a dois trabalhos anteriormente concluídos no PPGC e do Curso de Bacharelado em Ciência da Computação da UFRGS no ano de 2000, na seqüência, Hyper-Automaton: Hipertextos e Cursos na Web Utilizando Autômatos Finitos com Saída, dissertação de mestrado de Júlio Henrique de A. P. Machado e Hyper-Automaton: Implementação e Uso, trabalho de diplomação de Leonardo Penczek.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho, é estudado o controle da transmissão do som numa placa retangular e fina. Para tanto, é encontrada a resposta dinâmica da placa, excitada por forças harmônicas pontuais e piezomomentos, obtida usando uma base não-clássica e uma análise modal. A radiação sonora emitida pela vibração da placa é encontrada. A potência sonora radiada pode ser calculada aplicando controle ativo diretamente na estrutura, na forma de uma entrada vibratória, uma vez conhecida a resposta na superfície da placa, obtendo-se uma signicativa redução analitica. Os piezocerâmicos, modelados como quatro momentos pontuais, são unidos a superfície da placa como atuadores. A potência sonora transmitida antes e depois do controle é comparada, usando diferentes número de atuadores. Uma estratégia clássica de controle linear quadrático (LQR) e empregada no contexto de um procedimento de otimização da posição dos atuadores do sistema.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A liberalização da conta capital foi um fato marcante na década de 1990, no Brasil. Este trabalho se propõe a construir um índice baseado em Cardoso e Goldfajn (1997), para estudar, em termos quantitativos, a influência da legislação de controle de capital. Para isso, foi realizado um minucioso trabalho de pesquisa que abordou cerca de 200 principais normativos editados pelo Banco Central e Ministério da Fazenda, que afetaram o fluxo de capital no período 1990 - 2000. Concluímos que esse período foi marcado pela liberalização do fluxo de capital, com alguns subperíodos onde houve restrição, principalmente, à saída de capital. Nosso estudo também confirmou que o diferencial entre a taxa de juros doméstica e externa, o Plano Real, a legislação e os efeitos provocados pelas crises mexicana, asiática e russa foram fatores determinantes para explicar o fluxo de capital total entre 1990 e 2000. Ou seja, os fatores pull, push e efeito contágio foram importantes, conjuntamente, para determinar o fluxode capital total

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho, nos propomos a estudar o desenvolvimento teórico de alguns modelos matemáticos básicos de doenças infecciosas causadas por macroparasitas, bem como as dificuldades neles envolvidas. Os modelos de transmissão, que descrevemos, referem-se ao grupo de parasitas com transmissão direta: os helmintos. O comportamento reprodutivo peculiar do helminto dentro do hospedeiro definitivo, no intuito de produzir estágios que serão infectivos para outros hospedeiros, faz com que a epidemiologia de infecções por helmintos seja fundamentalmente diferente de todos os outros agentes infecciosos. Uma característica importante nestes modelos é a forma sob a qual supõe-se que os parasitas estejam distribuídos nos seus hospedeiros. O tamanho da carga de parasitas (intensidade da infecção) em um hospedeiro é o determinante central da dinâmica de transmissão de helmintos, bem como da morbidade causada por estes parasitas. Estudamos a dinâmica de parasitas helmintos de ciclo de vida direto para parasitas monóicos (hermafroditas) e também para parasitas dióicos (machos-fêmeas) poligâmicos, levando em consideração uma função acasalamento apropriada, sempre distribuídos de forma binomial negativa. Através de abordagens analítica e numérica, apresentamos a análise de estabilidade dos pontos de equilíbrio do sistema. Cálculos de prevalências, bem como de efeitos da aplicação de agentes quimioterápicos e da vacinação, no controle da transmissão e da morbidade de parasitas helmintos de ciclo de vida direto, também são apresentados neste trabalho.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Bolsa Família is the major brazilian conditional cash transfer program. It provides money to poor families contingent on investments in human capital, such as sending children to school or bringing them to health centers. This work aims to investigate if this program, in its normative structure, can be considered an appropriate policy of income redistribution and if it is able, appliances of the Welfare State model in the brazilian society and to approach the program in two different ways: as an alternative to more traditional social assistance programs and as a demand-side complement to the supply of other social needs. We will work on the thesis that the program by itself can not provide vulnerable populations with enough means to overcome poverty and to participate effectively on the market. According to this assumption, this paper is going to consider the reasons why tackling income necessary, along with the program, that the Government - in both federal and local spheres shall place major investments in critical areas like education and health.