33 resultados para Busca em Linha Vertical


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho constitui-se em um estudo acerca da construção do conhecimento do tema Marketing Metrics dentro da disciplina de marketing, centrando-se na linha de pesquisa de Valor do Cliente, uma das cinco principais que estão sendo trabalhadas sobre o tema. Assim, o autor deste trabalho realizou um estudo exploratório dividido em duas etapas, uma de análise da bibliografia acerca do Marketing Metrics em diversos centros acadêmicos e outra de verificação empresarial para analisar o grau de conhecimento e avaliação da importância do tema na visão empresarial. Ao final, o autor chega a um modelo sobre a construção de conhecimento do tema pesquisado e suposições a serem futuramente testadas, incluindo a influência de fatores como a natureza do negócio em que está inserida, o tamanho da base de clientes, a necessidade de uso do produto ou serviço, as barreiras de saída e o tamanho da empresa no grau de necessidade de relacionamento com os clientes, bem como a influência deste na busca do conhecimento acadêmico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

o estudo da distribuição de extinção na Galáxia e nas Nuvens de Magalhães é feito através da análise dos mapas de avermelhamento derivados da emissão 100f-Lmda poeira E(B- V)FIR de Schlegel et ai. (1998). Comparamos valores de avermelhamento E(B- V)FIR com os derivados do conteúdo estelar de 103 aglomerados abertos velhos e 150 aglomerados globulares da Galáxia. As diferenças entre os dois avermelhamentos, quando significativas, ocorrem principalmente em baixas latitudes galáticas, no sentido de que os valores E(B-V)FIR são mais altos devido à contribuição do fluxo 100f-Lmda poeira que se encontra atrás dos aglomerados. As diferenças também podem surgir por um valor de E(B-V)FIR superestimado devido aos grãos de poeira terem temperatura T> 21 K o que parece ocorrer principalmente na direção do Centro da Galáxia. Construímos um catálogo geral de nebulosas escuras unificando 15 catálogos da literatura reunindo~ 6300 itens. Após cruzamentos, o catálogo unificado contém 4956 nebulosas escuras. Medimos valores de E(B-V)PIR no centro destas nebulosas escuras e amostramos seus arredores. Encontramos contraste preferencialmente para nebulosas escuras a médias e altas latitudes galáticas. Nebulosas escuras próximas ao Plano Galático apresentam flutuações maiores nos valores de E(B- V)FIR nos arredores, devido às contribuições de densidade de coluna de poeira das nebulosas e meio difuso acumulados em profundidade ao longo da linha de visada. Utilizamos a fotometria JHKs do 2MASS para obter mapas de extinção em regiões candidatas a regiões de baixa extinção (janelas) na direção do Bojo Galático Confirmamos a existência das janelas e encontramos uma grande semelhança entre os mapas de extinção na banda K derivados a partir do conteúdo estelar e os derivados da emissão da poeira. Tal semelhança na distribuição do avermelhamento nos mapas se deve à maior parte das nuvens de poeira estar localizada entre nós e as estrelas do Bojo. Realizamos a busca de aglomerados infravermelhos jovens compactos (semelhantes aos aglomerados Arches e Quintuplet) próximo ao Centro Galático utilizando o Atlas de imagens JHKs do 2MASS. Encontramos 58 candidatos a aglomerados, importantes alvos para grande telescópios. Nas direções das Nuvens de Magalhães, testamos os valores de E(B- V)FIR nas linhas de visada de galáxias de fundo comparando esses valores com os avermelhamentos derivados através dos espectros observados das galáxias. A obtenção do avermelhamento foi feita comparando a distribuição de contínuo dos espectros das galáxias observadas na direção das Nuvens com o contínuo de espectros médios de semelhante população estelar (formados por galáxias em altas latitudes galáticas) corrigidos por extinção . O avermelhamento foi derivado para 36 galáxias projetadas sobre as Nuvens de Magalhães e obtivemos um avermelhamento médio total (galático + interno) de E(B-V) = 0.12 para a Grande Nuvem e E(B-V) = 0.05 para Pequena Nuvem, sendo o avermelhamento interno estimado em E(B- V)i = 0.06 e E(B- V)i = 0.04 para Grande e Pequena Nuvem respectivamente. Para 86 % da amostra obtivemos uma boa concordância entre os valores de avermelhamento espectroscópicos e os derivados da emissão da poeira Os casos de diferenças significativas foram interpretados como devidos à distribuição de poeira ter uma escala menor que a resolução dos mapas de avermelhamento E(B-V)FIR ou ao superaquecimento da poeira, como ocorre principalmente na direção do Centro Galático. As presentes análises da extinção através da Galáxia e das Nuvens de Magalhães fornecem evidências da importância, utilidade e algumas limitações dos mapas de poeira de Schlegel et aI. (1998) para estudos galáticos e extragaláticos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho é parte integrante de uma linha de pesquisa destinada ao estudo de viabilidade técnica de melhoramento artificial de camadas de solo. Objetiva-se com este trabalho contribuir para a viabilização de uso de solos melhorados para suporte de fundações superficiais. O estudo baseou-se em resultados experimentais de provas de carga em placas circulares de 0,30m e 0,60m de diâmetro sobre camadas de solo melhorado com cimento (teor de 5%) de 0,15m, 0,30111 e 0,60m de espessura. Os diâmetros das placas (D) e as espessuras das camadas de solo melhorado com cimento (H) foram fixados de forma a obter-se três valores distintos da relação H/D, correspondendo a 0,5, 1 e 2. Os resultados, representados adimensionalmente através de relações entre a tensão normalizada e o recalque relativo, demonstram a influência da espessura da camada de solo melhorado no comportamento de fbndações superficiais submetidas a carregamento vertical. Uma correlação de natureza semiempirica é desenvolvida de forma a permitir a previsão da magnitude de recalques e tensões de ruptura de sapatas a partir de resultados de ensaios de placa. Foram também avaliados a aplicabiidade de modelos analíticos para fundações superficiais assentes em perfis de solos não homegêneos com características coesivo-fnccionais. Neste sentido, apresenta-se urna comparação quantitativa e qualitativa entre os diversos métodos de previsão da capacidade de suporte e recalques, bem como uma validação das proposições através de comparações entre resultados calculados e medidos experimentalmente em campo. Os principais resultados obtidos na pesquisa são: [a] melhora de desempenho das fundações quando apoiadas em solos tratados, [b] dificuldade de previsão das cargas de ruptura e níveis de recalques em fundações apoiadas em solos estratifcados através de métodos analíticos, refletindo a complexidade deste problema de interação solo-estrutura e [c] desenvolvimento de uma metodologia semi-empírica para estimativa do comportamento de fùndações superíiciais com base em resultados de ensaios de placa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo propôs-se, inicialmente, a observar os movimentos e as vicissitudes na busca da constituição de uma comunidade de aprendizagem em uma escola da Rede Municipal de Ensino de Porto Alegre, à luz da teoria de Humberto Maturana - A Biologia do Conhecer. A escola em questão foi escolhida por apresentar em seu projeto político-pedagógico a metodologia de projetos de aprendizagem mediada pelas tecnologias digitais. A pesquisadora acompanhou, durante dois meses, uma turma de progressão parcial composta por vinte adolescentes, do sexo masculino, em fase de conclusão do ensino fundamental, sem estarem alfabetizados. As observações passaram-se em diversos cenários da escola, envolvendo o laboratório de informática, a sala dos professores, as reuniões pedagógicas, o conselho de classe e a sala de aula. Por meio de uma pesquisa-ação, os dados do trabalho de campo foram recolhidos junto aos professores, coordenação pedagógica e serviço de orientação educacional. Foram fotografados os alunos em seu local de trabalho. Neste percurso, procuramos mostrar os movimentos que apontaram tanto para a constituição na direção de uma comunidade de aprendizagem quanto os recuos. Observamos que, nos momentos nos quais ocorreu um encontro no emocionar e no aprender entre alunos e professores, houve também uma proposta pedagógica compartilhada. A tecnologia, neste aspecto, apareceu apenas como um recurso, sendo utilizada de forma individualizada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho é apresentar o desenvolvimento de um modelo computacional, baseado no método dos elementos finitos, para o estudo de estruturas de concreto armado e protendido, sob estados planos de tensão. O modelo computacional utiliza dois procedimentos distintos, baseados em um modelo elasto-viscoplástico. No primeiro, determina-se a resposta da estrutura ao longo do tempo. Considera-se, nesta etapa, que o material possui comportamento viscoelástico. No segundo, busca-se a resposta da estrutura para um carregamento instantâneo, considerando-se o material com um comportamento elastoplástico. Um modelo de camadas superpostas é adotado para melhor representar o comportamento viscoelástico do concreto e da armadura protendida, onde estes materiais são compostos de diversas camadas que sofrem a mesma deformação. Cada camada possui diferentes propriedades mecânicas e a tensão total é obtida pela soma das diferentes contribuições de cada camada. Para representar o concreto fissurado, utiliza-se um modelo de fissuras distribuídas, que leva em conta a contribuição do concreto entre fissuras. Tanto a armadura passiva quanto a armadura de protensão são introduzidas no modelo como uma linha de material mais rígido dentro do elemento de concreto. Considera-se aderência perfeita entre o concreto e o aço. Os deslocamentos ao longo das barras de aço são determinados a partir dos deslocamentos nodais dos elementos de concreto. Desta forma, as matrizes de rigidez das armaduras têm as mesmas dimensões das matrizes de rigidez dos elementos de concreto e ambas são somadas para a obtenção das matrizes de rigidez totais. Para verificar a precisão do modelo computacional, compararam-se resultados numéricos com valores experimentais disponíveis.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Há aproximadamente meio século, as praias situadas a sotamar do Porto do Mucuripe, em Fortaleza, vem sofrendo intensos processos erosivos, creditados em grande parte à construção e ampliação deste porto. O fato é que o acentuado crescimento urbano da capital cearense ocasionou a fixação de dunas e a quebra do fluxo longitudinal de sedimentos em seu litoral, resultando no recuo da linha de costa e na necessidade de intervenção antrópica por meio de obras rígidas que viessem a garantir a preservação da infra-estrutura existente nos trechos mais afetados. Como conseqüência da fixação das praias, o suprimento de material sedimentar passou a ficar retido, enquanto que o potencial de transporte das ondas se preservou. A quebra deste equilíbrio dinâmico acarretou a transferência dos processos erosivos para as praias adjacentes, o que tornou-se um problema cada vez maior, pois as soluções adotadas nestas praias eram idênticas às anteriores. As conseqüências deste processo para uma cidade como Fortaleza, onde o turismo é uma das principais fontes de renda, são graves, dado que como resultado final, encontramos longos trechos de praias com a balneabilidade comprometida e perda de qualidade visual. O litoral situado a oeste da capital é limitado à direita pela foz do Rio Ceará e à esquerda por um promontório rochoso, onde situa-se a Ponta do Pecém. Este trecho compreende aproximadamente 30 km de praias arenosas, com granulometria média e fina, e com ondas incidindo sobre a costa de forma obliqua, o que as torna o principal mecanismo de transporte de sedimentos. A ocupação urbana concentra-se principalmente nas praias mais próximas a Fortaleza, onde observa-se ainda, o afloramento de rochas de praia e grande perda de material sedimentar, fornecendo indícios da transferência dos processos erosivos da orla marítima da capital para estas praias. Com a conclusão das obras do Porto do Pecém e de um pólo industrial que visa desfrutar da localização estratégica deste porto, é natural que ocorra uma intensificação nos processos de ocupação urbana das praias próximas à área. Tal constatação motivou um trabalho de modelagem da dinâmica desta zona com o objetivo de nortear um plano de uso e ocupação das áreas localizadas próximas à praia, de forma que se possa prever o comportamento da linha de costa e evitar que sejam repetidos certos equívocos como a construção em zonas de forte dinâmica e a fixação das fontes primárias de fornecimento de sedimentos, que são as dunas frontais. Dada a disponibilidade de dados, bons processadores e aos custos significativamente reduzidos da modelagem numérica, adotou-se o pacote GENESIS – RCPWAVE, que além de ser de domínio público, é a base do sistema de modelagem de linha de costa adotado pelo CERC (Coastal Engineering Research Center), U.S.A., para aplicações em costa aberta, em regiões sujeitas às intervenções humanas. A calibração do modelo se fez considerando as linhas de praia medidas em 1974 pela DHN e em 2001 com o uso de GPS. Os dados de onda utilizados foram obtidos por um ondógrafo direcional do tipo Waverider, instalado a uma profundidade de 18 metros nas proximidades da Ponta do Pecém. Os dados relativos ao modelo conceitual dos processos predominantes na região, como: contribuições externas, variação granulométrica e variações sazonais de perfis foram obtidos de levantamentos bibliográficos de trabalhos anteriores. Por último, informações relativas às estruturas existentes e seu comportamento, ao afloramento de formações rochosas e o último levantamento da linha de praia, foram obtidas através de trabalhos de campo. De uma forma geral, o comportamento previsto pelo modelo mostrou-se semelhante ao observado nos diferentes levantamentos. Considerando-se as limitações dos processos envolvidos no levantamento de dados, onde tanto a carta da DHN quanto o mapeamento por satélite estão sujeitos a imprecisões e ainda, que a série de dados confiáveis de ondas para a região possuía apenas dois anos, é importante notar que, em linhas gerais, a formulação matemática do modelo representou satisfatoriamente os processos envolvidos. Os resultados fornecidos possibilitam a extrapolação da evolução da linha de costa e indicam pontos de provável recuo ou avanço da praia, norteando a sua ocupação. A ferramenta gerada proporciona ainda a avaliação do impacto de intervenções por meio de estruturas rígidas ou engordamento de praia ao longo do tempo e gera uma estimativa dos valores de deriva litorânea para os diferentes trechos de praia, possibilitando avaliar os efeitos das intervenções nas praias adjacentes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação parte da unidade como categoria teórica. São utilizados para este estudo a filosofia da física (CAPRA, WILBER, HAWKING ); a teoria do imaginário (DURAND, BACHELARD ) e a biologia do conhecimento ( MATURANA ). O método de trabalho é fenomenológico hermenêutico e através do conceito de vivência ( DILTHEY apud AMARAL ) prioriza a experiência direta com o mundo. Na relação indissociável entre teoria e método assume-se o sentido de unidade com o meio onde estamos inseridos, num processo de interdependência. O trabalho proposto constitui-se de vivências na natureza, através de rituais da cultura indígena, desenvolvidos com alunos de Séries Iniciais do Ensino Fundamental. O objetivo é que a criança tome consciência da unidade, como forma de “ser” humano ou de simplesmente ser, de maneira que a criança perceba a importância dos seus atos para o cosmos. Finalizo o trabalho com uma abertura para uma filosofia de vida que registra a importância de como educadores tentarmos resgatar valores que a cultura tecnológica e urbana enfraqueceram.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O adenocarcinoma de pâncreas continua sendo uma doença com alta mortalidade apesar dos avanços na ciência e na tecnologia. O diagnóstico é tardio, na maior parte dos casos, impossibilitando uma abordagem com fins curativos. Os estudos em busca de um método para o diagnóstico precoce ou mesmo um tratamento eficaz, até o momento, não revelaram mudanças significativas. Atualmente, pesquisas em biologia molecular apontando alterações em determinados genes nos tumores de pâncreas parecem ser promissoras. Neste sentido, porém seguindo uma outra linha de pesquisa, o estudo atual que objetiva a determinação das características nucleares das células neoplásicas através da cariometria por análise digital, constitui um passo inicial para futuras especulações. Recentemente, estudos em outros tecidos como o prostático, o mamário e o endométrio vêm demonstrando existir eficácia na diferenciação entre seus tecidos normais e neoplásicos e também uma forte relação entre as alterações encontradas na cromatina de seus núcleos celulares e a agressividade de seus respectivos tumores. Utilizando-se tecido pancreático estocado em parafina por até onze anos no laboratório de Patologia do Hospital de Clínicas de Porto Alegre (HCPA), foram determinadas as características nucleares em mil e trezentos núcleos de células ductais de adenocarcinoma de pâncreas e de tecido pancreático normal. Noventa e três características da cromatina foram estudadas por análise digital. Onze características apresentaram valores diferentes entre os dois grupos e estas diferenças foram estatisticamente significativas. A média para o valor da ÁREA nuclear nos tumores foi de 977.78 e de 336.60, no tecido normal; a da RLM278 foi de 353.23 e 97.07; a da RLM266 de 99.32 e 28.06; a do PERIM de 125.58 e 65.05; a do ROUND de 1.37 e 1.04; a da IOD de 123.49 e 107.97; a da FRACDIM de 1.22 e 1.05; a da DENSMIN de 0.01 e 0.14; a da DENSMAX de 0.53 e 0.62; a da DENSSD 0.25 e 0.10 e a da DENS20P de 0.49 e 0.33, respectivamente para os núcleos dos tumores e para os do tecido normal. Sete destas características serviram como marcadores ideais de neoplasia. Estes achados permitiram a criação de uma assinatura digital específica para cada um dos dois tipos de tecido estudado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A tecnologia de workflow vem apresentando um grande crescimento nos últimos anos. Os Workflow Management Systems (WfMS) ou Sistemas de Gerenciamento de Workflow oferecem uma abordagem sistemática para uniformizar, automatizar e gerenciar os processos de negócios. Esta tecnologia requer técnicas de engenharia de software que facilitem a construção desse tipo de sistema. Há muito vem se formando uma consciência em engenharia de software de que para a obtenção de produtos com alta qualidade e que sejam economicamente viáveis torna-se necessário um conjunto sistemático de processos, técnicas e ferramentas. A reutilização está entre as técnicas mais relevantes desse conjunto. Parte-se do princípio que, reutilizando partes bem especificadas, desenvolvidas e testadas, pode-se construir software em menor tempo e com maior confiabilidade. Muitas técnicas que favorecem a reutilização têm sido propostas ao longo dos últimos anos. Entre estas técnicas estão: engenharia de domínio, frameworks, padrões, arquitetura de software e desenvolvimento baseado em componentes. Porém, o que falta nesse contexto é uma maneira sistemática e previsível de realizar a reutilização. Assim, o enfoque de linha de produto de software surge como uma proposta sistemática de desenvolvimento de software, baseada em uma família de produtos que compartilham um conjunto gerenciado de características entre seus principais artefatos. Estes artefatos incluem uma arquitetura base e um conjunto de componentes comuns para preencher esta arquitetura. O projeto de uma arquitetura para uma família de produtos deve considerar as semelhanças e variabilidades entre os produtos desta família. Esta dissertação apresenta uma proposta de arquitetura de linha de produto para sistemas de gerenciamento de workflow. Esta arquitetura pode ser usada para facilitar o processo de produção de diferentes sistemas de gerenciamento de workflow que possuem características comuns, mas que também possuam aspectos diferentes de acordo com as necessidades da indústria. O desenvolvimento da arquitetura proposta tomou como base a arquitetura genérica e o modelo de referência da Workflow Management Coalition (WfMC) e o padrão de arquitetura Process Manager desenvolvido no contexto do projeto ExPSEE1. O processo de desenvolvimento da arquitetura seguiu o processo sugerido pelo Catalysis com algumas modificações para representar variabilidade. A arquitetura proposta foi descrita e simulada através da ADL (Architecture Description Language) Rapide. A principal contribuição deste trabalho é uma arquitetura de linha de produto para sistemas de gerenciamento de workflow. Pode-se destacar também contribuições para uma proposta de sistematização de um processo de desenvolvimento de arquitetura de linha de produto e também um melhor entendimento dos conceitos e abordagens relacionados à prática de linha de produto, uma vez que esta tecnologia é recente e vem sendo largamente aplicada nas empresas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com o advento dos computadores surgiram problemas de saúde associados à tarefa da digitação, causados, principalmente, pela posição estática do corpo, pela repetitividade de movimentos dos membros superiores, pelas forças envolvidas, etc. Na tentativa de relacionar esses fatores com os distúrbios, iniciou-se, na década de 90, o estudo da força aplicada nos teclados de computador. O objetivo principal deste trabalho é desenvolver uma plataforma para medir a força aplicada nas teclas do teclado de um computador durante a digitação, para utilização em biomecânica. Foi projetada e construída uma plataforma de força que mede a força vertical, Fz, (direção z), a força horizontal (e transversal) ao teclado, Fy, (direção y) e o momento aplicado no eixo horizontal e longitudinal ao teclado, Mx, (eixo x). Com estes três componentes é possível, numa análise bidimensional (2D), determinar a magnitude do vetor força resultante, seu ângulo com plano horizontal e o ponto de aplicação sobre a superfície da tecla. Os sensores utilizados foram os extensômetros de resistência elétrica, colados em placas que deformam-se principalmente por flexão; estes sensores são ligados em ponte completa de Wheatstone para cada canal de aquisição, Fx, Fy e Mx. Foi construído um modelo em madeira, PVC e acrílico, na escala 4,5:1, para auxiliar na busca de soluções de problemas de construção. Com o objetivo de aperfeiçoar o modelo conceitual criado, utilizou-se modelamento numérico (elementos finitos) Os sinais adquiridos para cada canal são independentes, não necessitando de operações posteriores. O sistema de aquisição é composto por um computador para armazenar e posteriormente tratar matematicamente os dados coletados, por uma placa de aquisição (A/D) de dados, um condicionador de sinais e o programa SAD 2.0 para aquisição e processamento de dados. A linearidade da plataforma de força permaneceu dentro dos limites de 3 % durante a calibração estática. Os testes dinâmicos mostraram que a plataforma possui freqüência fundamental superior a 2300 Hz, o que permite que ela seja utilizada com segurança para a análise de forças aplicadas durante a digitação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo geral deste trabalho é analisar as relações existentes entre o capital social e as políticas públicas. Especificamente, pretende-se avaliar a capacidade de uma política pública brasileira em induzir a formação do capital social. Sendo esta política a “Linha Infra-estrutura e Serviços aos Municípios do Programa Nacional de Fortalecimento da Agricultura Familiar” (PRONAF). Fundando-se nas concepções de WOOLCOCK (1998), avalia-se que o capital social é uma noção teórica dinâmica e multidimensional, ocorrendo, portanto, vários tipos (institucional, extra-comunitário e comunitário) e dimensões (“enraizamento” e “autonomia”) de capital social. Conclui-se que o capital social ainda não é um conceito definido. Mas considera-se que é um arcabouço teórico emergente, com expressiva possibilidade de utilização nos estudos que procurem entender a importância das relações sociais no processo de desenvolvimento. Parte-se de uma crítica à concepção de capital social presente na obra de PUTNAM (1996). Avalia-se que o capital social não é formado apenas pelos “atributos culturais”, determinados historicamente, de uma dada população. O Estado também cumpre uma importante função “protetora” ou “coercitiva” que contribui para a formação do capital social social. Defende-se, inclusive (e de acordo com EVANS) que o Estado deve ter uma forma de atuação que seja mais “ativa” para a indução a formação do capital social, principalmente entre populações mais empobrecidas. São apresentadas experiências latino americanas de políticas públicas, que conseguiram êxito na indução a formação do capital social. A análise destas experiências evidenciaram que, em políticas públicas que visem à descentralização, o Governo central cumpre um papel primordial na proteção ao capital social emergente das populações pobres, em relação aos interesses dominantes das elites locais. E foi a adequada estratégia operacional destas políticas que permitiu que elas alcançassem tais objetivos Os principais mecanismos operacionais que estas políticas utilizaram para o seu sucesso foram a publicização, a formação e a capacitação, a proteção aos conselhos gestores locais e a presença de funcionários públicos, ao nível local, que cumpriam a função da “autonomia inserida”. A Linha Infra-estrutura e Serviços aos Municípios do PRONAF, que é o objeto desta investigação, é avaliada neste trabalho somente em relação à capacidade que possui em induzir a formação dos vários tipos e dimensões do capital social. As fontes empíricas utilizadas foram as várias pesquisas, estudos e relatórios de campo já elaborados sobre este programa. A hipótese básica de pesquisa foi comprovada e permitiu concluir que esta política pública têm uma baixa capacidade de indução a formação do capital social, especialmente o tipo institucional. Propõe-se a adoção de mecanismos operacionais em políticas públicas descentralizadas, ao moldes da Linha Infra-estrutura do PRONAF, com o objetivo de se buscar induzir a formação do capital social. E, por último, defende-se a importância da utilização de políticas públicas descentralizadas e da noção teórica sobre o capital social nas estratégias de desenvolvimento rural para o Brasil.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O Cinema e a Psicanálise são contemporâneos. Ao longo do ano de 1995 muitos eventos marcaram a comemoração do centenário de um e outro. Se ambos surgem no mesmo momento histórico, que outros elos poderiam ser estabelecidos? Algumas considerações preliminares marcam possibilidades de interseções entre um e outro campo, para logo fazer um recorte onde a escolha recai por estabelecer uma associação entre os temas da associação-livre na psicanálise e a montagem no cinema. A questão básica norteadora da pesquisa está dada pela busca de bases comuns entre o fazer do analista quando interpreta a cadeia associativa produzida por seus pacientes e o fazer do montador quando produz cortes e junções de trechos fílmicos justapondo-os em uma seqüência determinada. A metodologia que perpassa a presente pesquisa está constituída basicamente pelo referencial psicanalítico. Subsidiariamente os aportes postos pelo método clínico piagetiano, em suas origens, servem de guia e inspiração para alguns momentos do trabalho. Estudamos cadeias associativas produzidas em três contextos diferentes, configurando três fontes de coleta e análise de dados: trechos de falas de pacientes em análise, principalmente aqueles que fazem referências a relatos de sonhos e filmes; "montagens" de trechos de filmes produzidas por alunos para ilustrar trabalhos na disciplina de "Teoria e Técnicas Psicoterápicas" e cortes e transições numa seqüência fílmica digitalizada utilizando os recursos propiciados pelo software Adobe Premiere LE. Algumas conclusões apontam no sentido da possibilidade de ser profícuo o trabalho conjunto de cineastas e psicanalistas, especialmente na constituição de um laboratório de estudos para construção de conhecimentos e desenvolvimento das habilidades requeridas para a formação de profissionais das duas áreas. Muitas perspectivas para desdobramentos e continuidade são indicadas, visando constituir uma linha de pesquisa sistemática na interseção dos campos do cinema e da psicanálise

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho objetivou a identificação dos elementos determinantes nas decisões de produção do elo primário da cadeia produtiva do milho na região extremo-oeste do Paraná. Para a elaboração deste estudo, foram utilizados elementos de cunho quantitativo e qualitativo. Os dados das fonte primárias foram coletados através de um questionário de perguntas fechadas, direcionado a agricultores (50), caracterizando a pesquisa quantitativa, na qual, posteriormente, os dados foram descritos e analisados; e de uma entrevista estruturada, direcionada aos engenheiros agrônomos e aos técnicos agrícolas que atendiam àqueles agricultores. Já os dados de fontes secundárias foram coletados a partir de documentos que se referiam ao objeto de estudo, tais quais: livros, artigos, pesquisas, etc. Os resultados apresentados demonstraram a fragilidade das decisões de produção. No que se refere à capacidade de produção, conclui-se que os agricultores se utilizam de um planejamento prévio, considerando o preço da soja no mercado e o clima, além das projeções de comercialização do grão. Quanto às instalações e ao nível tecnológico, a totalidade dos referidos agricultores possue algum tipo de equipamento, principalmente trator, pulverizador e plantadeira de plantio convencional e utiliza-se da rotação de cultura e da safrinha; quanto às instalações físicas, apenas 18% possuem silo para armazenagem do grão e 10% possuem secadores. No que se refere à integração vertical e à relação com fornecedores, 94% dos agricultores comercializam o grão optando principalmente por cerealistas e cooperativas. Quanto aos recursos humanos empregados, estes caracterizam-se pelos proprietários, cuja escolaridade divide-se entre 1º e 2º graus, além de um número limitado de funcionários (de 1 a 3). A disponibilização das informações ocorre via jornais, revistas e programas de rádio e de televisão especializados. Quanto a qualidade do grão utilizado para o plantio, observou-se a busca por sementes híbridas precoces e superprecoces. Em vista da pesquisa, é possível considerar que, apesar da existência de um certo padrão de produção junto às propriedades, as decisões de produção dos agricultores baseiam-se mais na experiência do que em quaisquer argumentos científicos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A separação/remoção de óleos emulsificados em água foi estudada, utilizando um novo processo baseado nas técnicas de floculação pneumática em linha, seguida de separação por flotação (denominado de processo de Floculação-Flotação ou processo FF). A primeira etapa do estudo foi o projeto, construção e montagem de um sistema piloto de geração de emulsões, floculação pneumática em linha e de separação por flotação, instalado no Laboratório de Águas Oleosas, na Refinaria Alberto Pasqualini (REFAP S.A.), Canoas-RS. Após esta etapa, foram realizados estudos utilizando água oleosa sintética, visando caracterizar e otimizar os principais parâmetros da floculação pneumática, fase determinante no processo FF. Os resultados mostraram que a melhor eficiência, 93 %, foi obtida quando da utilização de um floculador tipo serpentina de 20 elementos de mistura (MS-20), uma concentração de 2 mg/L de floculante (PVA) e uma vazão de ar de 40 L/min. Esta eficiência correspondeu a uma concentração residual de óleo na água tratada de 10 mg/L. Foi demonstrado ainda que, independentemente do tipo de floculador e da vazão de água oleosa, a remoção de óleo é determinada pela perda de carga resultante da injeção de ar antes do floculador. No estudo do tratamento do efluente oleoso proveniente da saída do separador PPI (REFAP S.A.), os melhores resultados foram obtidos utilizando-se o Mafloc-489 (floculante catiônico de alto peso molecular), em uma concentração de 6 mg/L, proporcionando uma concentração residual de óleo no efluente tratado de 8 mg/L (91 % de remoção) O processo de Floculação-Flotação estudado, demonstrou ser também eficiente na remoção de outros poluentes do efluente, além do óleo. Nas melhores condições operacionais, foram removidos 87 % da turbidez, 90 % dos sólidos suspensos, 91 % do óleo e 56 % da demanda química de oxigênio (DQO), proporcionando, em apenas uma etapa de tratamento, um efluente tratado com níveis de poluentes analisados abaixo do padrão exigido pelo órgão ambiental Estadual (FEPAM). Os principais mecanismos envolvidos no processo FF estão relacionados com a irreversibilidade na adsorção do polímero sob turbulência e a conformação deste na interface óleo/água/ar. O alto grau de cisalhamento, resultado dos fluxos volumétricos de ar e água, e a maior “insolubilidade” (precipitação) do polímero na interface ar/água, facilitam a geração de grandes flocos aerados de estrutura fibrosa. Esses resultados e outros obtidos com diferentes efluentes reais e suspensões sólidas mostraram que o processo FF possui um elevado potencial como nova operação unitária de separação líquido1/líquido2, sólido/líquido ou sólido/líquido1/líquido2. As principais vantagens do FF são os baixos custos envolvidos (investimento e operacional), a simplicidade dos elementos construtivos (compactos), a confiabilidade nos resultados e sua elevada capacidade de tratamento (> 60 m3/m2/h).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem por objetivo determinar e avaliar a transmissibilidade da vibração no corpo humano além de desenvolver um modelo numérico de quatro graus de liberdade representativo do sistema banco e corpo humano. Para auxiliar no desenvolvimento deste trabalho foi realizado um resgate de pesquisas publicadas por pesquisadores anteriormente na área de modelamento numérico, além das medições e avaliações da transmissibilidade da vibração no corpo humano. Foram realizadas medições da transmissibilidade da vibração no corpo humano na posição sentado em um banco comumente utilizado para motoristas de ônibus urbanos. As medições foram realizadas ao longo do eixo z, de acordo com as recomendações das normas ISO 2631 (1974 e 1997), utilizando-se de acelerômetros uni-axiais, um computador com placa conversora analógica para digital (A/D), além de programas desenvolvidos na plataforma de programação gráfica HPVee para aquisição dos níveis de vibração e avaliação das transmissibilidades da vibração. A vibração vertical foi simultaneamente medida no corpo humano (direção z – ISO 2631). Para medir os níveis de vibração no assento, na pélvis, no ombro e na cabeça foram utilizados quatro micro-acelerômetros uni-axiais (Endveco Isotron 2250A/AM1-10) enquanto que no piso, foi utilizado um acelerômetro uni-axial da Brüel & Kjaer 4338. O grupo estudado nos experimentos era composto por cinco indivíduos, sendo três homens e duas mulheres. Avaliou-se a transmissibilidade entre o assento do banco e o piso, entre a pélvis o assento, entre o ombro e o assento e entre a cabeça e o assento. Os resultados indicaram que o sistema apresentou uma amplificação da transmissibilidade entre o assento e o piso em até 2,5 vezes, enquanto que, para as demais transmissibilidades (pélvis/assento, ombro/assento, cabeça/assento) houve uma atenuação gradual da transmissibilidade da vibração Um modelo linear de quatro graus de liberdade foi desenvolvido para representar o comportamento biodinâmico de indivíduos brasileiros submetidos à vibração forçada proveniente de sinais medidos em ônibus urbanos brasileiros. O modelo responde simultaneamente de acordo com os dados obtidos experimentalmente da transmissibilidade entre o assento e o piso e entre o ombro e o assento para uma faixa de freqüência de 4 até 40 Hz. Foi desenvolvida uma rotina no Maple 5.5 (anexo 10.4) a qual consiste em ajustar uma curva de transmissibilidade calculada com os limites estabelecidos dos parâmetros biomecânicos definidos nos ensaios biométricos e literatura às curvas de transmissibilidade obtidas experimentalmente. Os resultados indicaram que para a curva de transmissibilidade entre o assento e o ombro o erro foi de 37,78% enquanto que para as curvas de transmissibilidade entre o assento e o piso apresentaram um erro de 17,74 %. Apesar dos valores de erro percentual terem sido relativamente elevados, os valores de ambas as curvas de transmissibilidade numérica apresentaram resultados de ajuste muito próximos às curvas experimentais.