999 resultados para Conjuntos borrosos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Planificación del Talento Humano es el núcleo donde se originan los lineamientos para la toma de decisiones estrategias de la organización por la intervención que directamente tienen las personas en el desarrollo del negocio, servicio o producto de una empresa. Con este propósito la presente investigación busca responder desde diferentes corrientes técnico-teóricas la importancia de este subsistema en la administración del talento humano, así como la incidencia que representa en la institución su inadecuada ejecución. Este estudio exploratorio se lo realizará en unidades de negocio que se generaron con la expedición de la LOEP (Ley Orgánica de Empresas Públicas), denominadas áreas administrativo-operativas en la empresa pública, dirigidas por un administrador con poder especial para el cumplimiento de atribuciones establecidas para desarrollar actividades o prestar servicios de manera descentralizada y desconcentrada, el aporte de esta información de la realidad funcional de estas áreas desde la perspectiva de la PTH, servirá para evidenciar de mejor manera los componentes de la PTH que la empresa precisa para las decisiones estratégicas en pos de la obtención de resultados conjuntos. La función principal de la PTH, por su enfoque innovador, es asesorar a la gerencia y directivos en la reformulación de acciones y procesos, generación de estrategias y tácticas en la administración del talento humano y resolver las interrogantes que sobre estos temas se presenten al realizar el ejercicio de planificar, orientando a los actores hacia el logro de resultados en los objetivos institucionales. En esta investigación se incluyen diversas fuentes de información científica que refuerzan esta propuesta de diseñar un Modelo de gestión del proceso de planificación del talento humano en las Unidades de Negocio de la EPMMOP y en general para una empresa, añadiendo otros elementos no contemplados para el sector público, que técnicamente siguiendo las nuevas, diversas y cambiantes tendencias competitivas de las organizaciones en la actualidad, se hacen indispensables en los modelos para la construcción de políticas y lineamientos a seguir formando parte de los insumos que agregan valor al propósito de la PTH, que busca permanentemente mecanismos óptimos de desarrollo de gestión y claves de éxito, desde la visión del rol estratégico que el talento humano cumple en la empresa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A verificação da qualidade dos kits de diagnóstico para detecção do HTLV-I/II é essencial, uma vez que são utilizados tanto em rotinas laboratoriais como em Serviços de Hemoterapia para aprovar a doação de sangue. Os conjuntos diagnósticos constituem uma ferramenta fundamental para diagnóstico por possuírem uma alta sensibilidade e especificidade, garantindo a confiabilidade dos resultados. Pela variedade de conjuntos diagnósticos encontrados no mercado, é necessário um rigoroso controle de qualidade para evitar possíveis erros analíticos como resultados falso-positivos, causando problemas emocionais e sociais no doador. O presente trabalho foi realizado no intuito de caracterizar unidades de plasma obtidas de Serviços de Hemoterapia de diversas regiões do país para compor e ampliar um painel de referência para HTLV que será utilizado na verificação do controle de qualidade dos kits de diagnóstico para o HTLV-I/II, aumentando a capacidade analítica do Laboratório de Sangue e Hemoderivados (LSH), localizado no Instituto Nacional de Controle de Qualidade em Saúde (INCQS)/Fiocruz. Desta forma, foram analisadas no período de 2000 a 2013, 3.559 unidades de plasma. Das unidades que foram encaminhadas para o INCQS, 109 foram enviadas como reagentes para HTLV, sendo recaracterizadas pela triagem de marcadores para HIV-1/2, hepatite C, HBsAg, anti-HBc, Doença de Chagas e Sífilis. A princípio foram realizados dois testes para HTLV-I/II. As unidades de plasma com reatividade apenas para anti-HTLV-I/II foram testadas através da técnica de ELISA e nas amostras com resultado reativo, a confirmação foi realizada por Western Blot. Todos os testes realizados seguiram rigorosamente as técnicas descritas nos manuais de instrução de cada fabricante. Por fim, foram obtidas76 amostras com reatividade para anti-HTLV-I/II, possibilitando a ampliação do painel de referência já existente no LSH e consequentemente a capacidade analítica do laboratório.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los asuntos “intermésticos”, como el comercio, la migración y el narcotráfico, tienen un gran peso en las relaciones contemporáneas entre Estados Unidos y América Latina y son de suma importancia para los estados latinoamericanos y del Caribe. Pero, pese a su trascendencia para los líderes y las sociedades de Latinoamérica, el éxito que han tenido los diplomáticos del continente en influir sobre la política estadounidense en estos temas ha sido aún menor que en otras esferas. Esto se debe, al menos en parte, a las dinámicas que los asuntos intermésticos generan en el proceso de la política exterior de Estados Unidos. Si bien dichas dinámicas han sido ampliamente estudiadas, se ha prestado menos atención a cómo inciden en la política exterior de América Latina y el Caribe hacia Estados Unidos. A partir de los trabajos de Putnam, Milner y Tsebelis, entre otros, este artículo sostiene que los asuntos intermésticos enfrentan más actores con capacidad de veto y tienen menos “conjuntos ganadores” (win-sets) que los asuntos de política exterior tradicionales, lo que dificulta aún más los intentos por influir en las políticas estadounidenses. Esta tesis se examina tomando como ejemplo el caso de la disputa entre Estados Unidos y México por el cruce fronterizo de camiones y los veinte años que el gobierno mexicano tuvo que luchar contra funcionarios y grupos de interés estadounidenses para lograr que aquel país cumpliera con lo dispuesto en el TLCAN. Luego de examinar brevemente otros asuntos similares, el artículo concluye que los asuntos intermésticos exigen estrategias diplomáticas diferentes por parte de los legisladores latinoamericanos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada ao Programa de Mestrado em Administração da Universidade Municipal de São Caetano do Sul - USCS

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta uma técnica de programação e controle da construção repetitiva denominada Linha de Balanço. E uma técnica, surgida na indústria fabril, onde a produção em série e em grande escala exige a organização dos métodos de produção e a racionalização do trabalho. O estudo, inicialmente, modela o trabalho de construção de unidades repetitivas, salientando os problemas de organização e administração destes empreendimentos. Num segundo momento, são apresentados os princípios teóricos da técnica com aplicações práticas da programação. Por fim, é analisada a metodologia usual de construção de conjuntos habitacionais através de um estudo de caso e, observadas as condições de aplicação da técnica da Linha de Balanço, não exigindo mudificações muito profundas na atual ação gerencial neste tipo de obra. As conclusões esboçadas confirmam as vantagens da técnica da Linha de Balanço para estes empreendimentos e propõem a sua utilização na organização do trabalho nos canteiros repetitivos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os satélites para sensoriamento remoto atualmente dispoívies à comunidade científica possuem diferenies resoluções espaciais, por exemplo: SPOT 20 e 10 metros, LANDSAT-TM 30 metros e NOA-AVHRR 1100 metros. Essa resolução frequentemente não é grande o suficiente para um grande número de aplicações que necessitam de uma percepção da cena mais detalhada. Muitas vezes, no interior de uma célula de resolução (pixel) mais de uma classe ocorre. Este caso é conhecido como pixel mistura. Na classificação de imagens obtidas por sensoriamento remoto é comum a utilização de metodologias que atribuem somente uma classe a um pixel, como o procedimento clássico da máxima verossimilhança. Esse procedimento resulta frequentemente em uma estimação errônea das áreas ocupadas pelas classes presentes na cena. Em alguns casos, especialmente quando não há uma classe dominante, isto pode ser a fonte de um erro significativo. Desde o início dos anos 70, diferentes metodologias têm sido propostas para o trabalho num nível de subpixel. A grande vantagem do trabalho nesse nível é que um pixel não é necessariamente atribuído a somente uma classe. O pixel tem um grau que o correlaciona a cada classe: de zero(se a classe não ocorre no pixel) até 1 (a classe ocorre no pixel inteiro). Assim, cada pixel tem um vetor associado que estima a proporção de cada classe nele. A metodologia mais comumente utilizada considera a refletância do pixel mistura como uma combinação linear da refletância média de cada classe componente. De acordo com essa visão as refletâncias associadas às classes componentes são consideradas constantes conhecidas i.e., não são variáveis aleatórias. Assim, a proporção de cada classe no pixel é obtida pela resolução de um sistema de equações lineares. Uma outra metodologia é assumir as refletâncias que caracterizam as classes como sendo variáveis aleatórias. Nesta visão, as informações a respeito das distribuições das classes é utilizada. A estimativa das proporções de cada classe é obtida pelo vetor de proporções que maximiza a função de verossimilhança. Mais recentemente, uma visão diferente foi proposta: a utilização da lógica fuzzy. Esta metodologia utiliza o conceito de função de pertinência que é essencial à teoria dos conjuntos fuzzy. Esta função utiliza elementos com natureza estatística ou não para a estimação das proporções. No presente trabalho, duas funções de pertinência foram definidas: a primeira baseada na função densidade probabilidade gaussiana e a segunda baseada diretamente na distância de Mahalanobis. O objetivo deste estudo é avaliar cada uma das metodologias anteriores em termos de acurácia, performance e dados necessários. Para este objetivo, as metodologias foram implementadas computacionalmente e alimentadas com imagens LANDSAT-TM. Para a avaliação da acurácia dos modelos um estudo qualitativo foi executado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Visa a presente dissertação de mestrado estabelecer um sistema de contabilidade de custos integrado e coordenado com a contabilidade financeira para a Industria de Oleos Vegetais e que, encarando este sistema sob um duplo enfoque, contabil e administrativo, permita a conciliação destes dois enfoques ate certo ponto contrastantes. A construção de um sistema de custo requer um completo entendimento: (1) dos processos de produção; (2) dos objetivos perseguidos pelo sistema de custos e (3) da estrutura organizacional da empresa. Quanto às caracteristicas especiais da industria de óleos de soja, no Rio Grande do Sul, no que se refere a seu processo de estas são, basicamente: (1) produção continua em massa; (2) obteção de co-produtos e de subprodutos e (3) industrialização subdividida em fases. Destarte, o custo de industrialização de sementes oleaginosas divide-se basicamente em duas fases importantes: (1) uma, de custos conjuntos, comuns a todos os produtos resultantes - o circuito do grão - que abrange a ensilagem, a preparação dos grãos e a extração. (2) outra, de custos isolados - que abrange os circuitos óleo (miscela) e do farelo (polpa), bem como o refino e a embalagem. Quanto aos objetivos perseguidos com a introdução de um sistema de custos na Industria de Óleos Vegetais, requerem-se dados de custos basicamente para três finalidades: (1) custos para estoques: avaliação de estoques para fins de inventário; (2) custos para controle: avaliação da eficiência para fins de controle; (3) custos para decisões: estabelecimento de parâmetros fins de tomada de decisões. Quanto à estrutura organizacional, deverá, na elaboração de um sistema de custeio, ser observada a constituição da empresa em termos de departamentos e/ou de centros de custos, caracterizando-os como sendo auxiliares, de produção, de vendas, distribuição, ou ainda de administração. Dadas as caracteristicas da industria, os objetivos perseguidos e a estrutura organizacional básica constatada, concebeu-se um sistema de custo, integrado e coordenado com o restante da escrituração, com as se guintes caracteristicas: (1) Quanto à concepção formal do sistema: Sistema Dualista com escrituração em Partidas dobradas mediante Registros Globais; (2) Quanto à concepção essencial do sistema: Custeio Parcial de Absorção, com emprego de custos gerais indiretos setorialmente diferenciados, absorvidos com base na capacidade normal; (3) Quanto ao metodo de alocação dos custos conjuntos aos coprodutos: Abordagem do Valor Relativo de Vendas (calculado) no Ponto de Separação, estabelecido com base em cálculo retroativo partindo dos valores relativos de vendas dos co-produtos no ponto de vendas e trabalhando de trás para frente em direção aos valores relativos de vendas aproximados (calculados) no ponto de separação e deste ainda subtraindo o credito total conjunto e o custo administrativo que foi atribuido aos co-produtos por rateio; (4) Quanto ao método de alocação das receitas com subprodutos: subtração da receita obtida com a venda dos subprodutos dos custos da fase em que os mesmos são obtidos. É sistema dualista, porque propõe a existência de "duas" contabilidades - a contabilidade externa ou financeira e a contabilidade interna ou de custos, sendo, todavia, complementares entre si. Sua escrituração se faz em partidas dobradas, mediante registros globais, porque é contabilidade de custos é conduzida atraves de fichas, mapas, planilhas e somente o resumo final do movimento de valores e contabilizado mensalmente mediante lançamentos globais. É um sistema de custeio parcial de absorção, porque: (1) atende ao que estabelece o Cecreto-Lei n9 1398, de 26/12/77, em seu art. 139 , a respeito da avaliaçâo dos estoques, para fins de inventários; (2) permite o uso de orçamentos flexiveis para fins de controle e com isso a adaptação do sistema de custeio ao nivel de produção (ou de atividade) esperado durante o periodo de produção; (3) permite tanto determinar o custo dos produtos (para fins de inventário), como tambem a contribuição que os mesmos trazem ao lucro empresarial e à receita total (para fins decisoriais) ; e ainda (4) permite, se separados os custos indiretos em fixos e variáveis, no Mapa de Localização de Custos, o cálculo do ponto de equilibrio de alternativas de resultado a diversos niveis de produção, bem como ainda de alternativas de limites inferiores de preço de venda a diversos niveis de produção, para fins decisoriais. Para fins contábeis e para a integração custo - contabilidade são usados valores histéricos, para fins de controle, valores orçados, estimados e para fins de decisão, valores de reposição ou estimados (projetados). o sistema de custos baseia-se, ainda, para sua elaboração, em duas peças-chave, que são: (1) - O Mapa de Lqcalização de Custos, no qual todos os custos indiretos são alocados por especies de custos e por centros de custos; (2) - O Boletim de Apropriação de Custos, no qual e realizado o cálculo do custo unitário dos co-produtos, para fins de inventário. Para que aconteça a total integração da contabilidade de custo com a contabilidade financeira, esta mantém contas de produção e de estoques, fase por fase, nas quais são lançados, por intermedio de registros globais, os resultados do cálculo de custos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dados altimétricos do satélite TOPEX/POSEIDON obtidos durante 1993 e 1994 foram utilizados para estudar a dinâmica oceanográfica na região oeste do oceano Atlântico Sul, entre as latitudes de 15°S e 50°S e longitudes de 30°W e 65°W. Simultaneamente, dados hidrográficos (históricos e sinópticos) e imagens termais do sensor AVHRR/NOAA foram utilizados com o objetivo de proporcionar uma comparação com os resultados da altimetria. Características da topografia dinâmica superficial, da variabilidade e anomalias da topografia dinâmica são apresentadas. Imprecisões dos modelos do geóide marinho restringiram o estudo dos padrões da topografia dinâmica supercial e das correntes geostrósficas superficiais, a comprimentos de onda espaciais superiores a 2400 Km. A variabilidade temporal da topografia dinâmica demonstrou um padrão altamente energético na região da Confluência Brasil-Malvinas durante o período. Diferenças sazonais foram observadas com os maiores valores de variabilidade nos meses de inverno e primavera. As anomalias (resíduos) da topografia dinâmica foram utilizadas no estudo de fenômenos transientes, onde um vórtice foi acompanhado acompanhado ao longo do tempo, e em conjunto com imagens AVHRR/NOAA. Feições térmicas superficiais foram confrontadas com anomalias altimétricas de trajetórias específicas, contemporâneas às imagens, apresentando ótima concordância e confirmando a excelente potencialidade do uso conjunto destes dois tipos de dados. Finalmente, a técnica da topografia dinâmica composta (combinação de dados altimétricos e climatológicos) foi utilizada para reconstruir a topografia dinâmica total a partir das anomalias altimétricas, sem a contaminação das imprecisões dos modelos do geóide. O ciclo escolhido corresponde ao mesmo período de um cruzeiro hidrográfico, proporcionando uma comparação entre topografias dinâmicas (e velocidades geostróficas superficiais) estimadas pelos dois conjuntos de dados. A concordãncia entre os dois resultados foi bastante satisfatória, indicado a possibilidade de se gerar estimativas da circulação geostrófica superficial, com boa confiabilidade, apenas com dados do sátelite e dados hidrográficos climatológicos. Concluíndo, o TOPEX/POSEIDON apresenta-se como uma excelente ferramente para o estudo da dinâmica oceanográfica no Atlântico Sul, proporcionando uma análise quasi-sinóptica de qualidade e, principalmente, aumentando o conhecimento desta região.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A visualização de informações congrega um conjunto de técnicas que têm por objetivo facilitar o entendimento de informações a partir de representações visuais. Nesta área, parte-se do pressuposto de que uma representação visual de dados ou informações proporciona uma forma mais simples e intuitiva de entendê-los e, com isso, inferir mais rapidamente e com maior precisão o seu significado. Normalmente, a tarefa de análise de dados é realizada com o auxílio de ferramentas de acordo com a natureza dos dados e do estudo sendo realizado. As técnicas de visualização de dados e informações não substituem ferramentas de análise específicas. Elas podem ser usadas como primeira aproximação do processo de análise, quando sintetizam de forma visual uma grande massa de dados, permitindo escolher partes do volume de dados para análise mais detalhada, ou como forma de apresentação de dados já reduzidos. Quando o subconjunto dos dados de interesse está disponível, a utilização de uma ferramenta de visualização proporciona maior agilidade nas análises e padrões na massa de dados podem ser descobertos visualmente. Uma das classes de técnicas de visualização utilizada nesta área é a icônica. Um ícone (ou glifo) é um objeto com geometria e aparência paramétricas, as quais podem ser arbitrariamente vinculadas a dados. A função de um ícone é agir como uma representação simbólica, que mostra as características essenciais de um domínio de dados ao qual o ícone se refere. Assim é possível obter uma visualização dos dados de uma forma mais clara e compacta. Em geral, ícones são utilizados para representar dados multidimensionais, ou seja, múltiplos atributos associados a uma posição num espaço qualquer, ou a entidades em estudo. O presente trabalho analisa o uso de ícones na visualização de informações. São discutidos os conceitos fundamentais de visualização de informações e sua relação com a área de mineração de dados. O uso de ícones em diversos trabalhos apontados na literatura é apresentado, sendo abordada a questão de geração automática de ícones, mais flexível do que os conjuntos fixos providos pelos sistemas de visualização estudados. Uma proposta para gerar ícones de forma automática baseada numa especificação paramétrica dos ícones é utilizada em um conjunto de dados característicos de espécimes animais estudados por biólogos do Departamento de Genética da UFRGS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Conhecer o comportamento vibratório de rotores de máquinas rotativas, já durante a fase de projeto, é uma necessidade cada vez maior nos dias atuais, quando modificações corretivas, após o início da operação, já não são mais aceitáveis, devido aos altos custos de material e execução empregados, se comparados com os lucros que são cada vez mais reduzidos, em função das regras impostas pelo mercado, e devido também ao tempo necessário para tais modificações, que implica em manter a máquina parada, sem gerar lucros nesse penodo, acarretando em mu1tas contratuais para o fabricante. o presente trabalho visa dar subsídiosà análise dinâmicadas linhas de eixos de turbo e hidrogeradores (conjuntos formados pela turbina mais o gerador, usados respectivamentenas centraistermelétricase hidrelétricas). Inicialmente é feita uma breve explanação sobre formas construtivas de hidrogeradores e tipos de turbinas hidráu1icas utilizados atualmente. O trabalho prossegue apresentando as propriedades dos mancais com filme de óleo, os fenômenos do empuxo magnético no rotor do gerador e do efeito giroscópico, bem como a norma ISO 1940, que define os níveis admissíveis de desbalanceamentos residuais para rotores de máquinas É apresentada uma formulação matemática pelo Método das Matrizes de Transferência para as análises das vibrações livres, bem como das vibrações forçadas com carregamentos cíclicos devido aos desbalanceamentos residuais das linhas de eixos. A análise das vibrações livres é feita para a obtenção das fteqüências naturais torcionais e das fteqüências tlexionais críticas em um plano. A análise das vibrações forçadas é elaborada para fornecer as respostas dinâmicas em dois planos ortogonais, devido ao desbalanceamento residual. Para aplicação da metodologia de cálculo apresentada, são elaboradas rotinas computacionais de cálculos, utilizando como plataforma o software MATLAB. Para testar o Método das Matrizes de Transferência, bem como os programas de computador elaborados, faz-se algumas análises com soluções analíticas exatas e comparam-se resultados obtidos. Como aplicação prática, faz-se um estudo aprofundado dos comportamentos dinâmicos algumas linhas de eixos de hidrogeradores, para variações de configurações de construção dessas, bem como para as diversas condições de operação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os recursos hídricos superficiais e subterrâneos tem-se mostrado contaminados, cada vez mais freqüentemente, por substâncias orgânicas e inorgânicas, em nível de traços, prejudicando os seus usos mais nobres, por exemplo, abastecimento público. Este estudo teve por finalidade principal verificar a eficiência de rejeição por membranas poliméricas, de alguns compostos orgânicos tipo, naftaleno, carbofurano, tricloroetileno (TCE) e metil paration, em baixas concentrações. Empregou-se testes hidrodinâmicos de filtração, tipo "dead-end", com taxa de aplicação média de 13,16 m3.m-2.h-1 através das membranas comerciais de características distintas, uma de ultra (UE-50) e duas de nanofiltração (XN-40 e TS-80). Avaliou-se, também, a preparação de água contaminada para a filtração por membranas, através do prétratamento por oxidação do carbofurano em meio líquido, usando um desinfetante padrão, o hipoclorito de sódio. Após a oxidação desde composto, testes hidrodinâmicos de filtração foram realizados para verificar, também, a eficiência de rejeição dos sub-produtos. Por fim, foram realizados testes de envelhecimento das membranas que poderiam ser atacadas pelos compostos orgânicos em solução aquosa. Todos os ensaios foram realizados à temperatura de 25 oC, empregando pressão de filtração de 4 atm. Os compostos orgânicos foram detectados por várias técnicas, principalmente cromatografia gasosa e líquida, sequenciada por espectrometria de massas. Para acompanhar o envelhecimento das membranas, em seis meses de uso, foi empregada microscopia de força atômica, através da medição de porosidade e de rugosidade superficiais. Em termos médios, nas três faixas de concentrações testadas, o metil paration foi o composto mais eficientemente removido pelas membranas em todos os testes realizados, com 59,82 % de rejeição pela membrana UE-50, 43,97 % pela membrana XN-40 e 56,12 % pela TS-80. O TCE foi rejeitado 28,42 %, 23,87 % e 21,42 % pelas membranas UE-50, XN-40 e TS-80, respectivamente. O naftaleno, foi rejeitado 20,61 %, 14,85 % e 12,63 % pelas membranas UE-50, XN-40 e TS-80, respectivamente. Para o carbofurano, a percentagem de rejeição pelas membranas UE-50, XN-40 e TS-80 foi, respectivamente, de 4,51 %, 4,88 % e 2,92 %. Dentre todas as membranas testadas, a membrana de polisulfona UE-50, de ultrafiltração, produziu a melhor eficiência na rejeição de metil paration, tricloroetileno e naftaleno, com 59,82 %, 28,43 % e 20,61 % de rejeição, na ordem. A membrana de poliamida-uréia TS-80, de nanofiltração, proporcionou maior rejeição (56,12 %) que a membrana de poliamida XN-40, de nanofiltração (43,97 %), para o metil paration. Ao contrário, a membrana XN-40 mostrou uma rejeição maior (23,87 %) que a TS-80 para o tricloroetileno (21,42 %). Para o naftaleno, a membrana XN-40 também mostrou uma rejeição (14,85 %) maior que a TS-80 (12,63 %). A eficiência de rejeição do carbofurano foi a menor de todos os compostos ensaiados, independente da membrana. Se for assumido que a membrana de ultra deverá ser seguida pela de nanofiltração, a eficiência conjunta UE-50 + XN-40 será, em termos médios, para o naftaleno, carbofurano, tricloroetileno e metil paration, respectivamente, 32,24%, 9,19%, 45,60% e 77,44%. Para o conjunto UE-50 + TS-80 será de: 30,64%, 7,29%, 43,92% e 83,51%, não havendo diferenças estatisticamente significantes entre os dois conjuntos. Nos testes de pré-tratamento por oxidação do carbofurano, observou-se a formação do carbofurano hidrolisado e mais dois sub-produtos principais, SP-1 e SP-2, que foram rejeitados, 47,85 % e 92,80 %, respectivamente, pela membrana XN-40. Na verificação das perdas das características morfológicas pelo uso prolongado das membranas, sob ataque de compostos orgânicos em baixa concentração ("envelhecimento") verificou-se que a rugosidade (0, 3 e 6 meses) e a porosidade (0, 3 e 6 meses) foram consideravelmente alteradas. A porosidade da membrana XN-40 aumentou 42,86% e a da membrana TS-80 aumentou 34,57%, quando imersas por 3 meses. A rugosidade das membranas XN-40 e TS-80 nos testes de imersão por 3 meses, aumentou 5,37% e 291% respectivamente. Nos testes de imersão em 6 meses, o aumento da porosidade das membranas XN-40 e TS-80 foi de 29,67% e 18,52% respectivamente, enquanto que a rugosidade aumentou 25,27% e 155% para as mesmas. Conclui-se que membranas de nanofiltração poliméricas necessitam de prétratamentos para rejeitar, com segurança, e colocar dentro dos padrões de potabilidade, águas contaminadas com os compostos orgânicos tipo testados e que seu uso prolongado irá afetar as suas características de rejeição dos contaminates.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The recent advances in CMOS technology have allowed for the fabrication of transistors with submicronic dimensions, making possible the integration of tens of millions devices in a single chip that can be used to build very complex electronic systems. Such increase in complexity of designs has originated a need for more efficient verification tools that could incorporate more appropriate physical and computational models. Timing verification targets at determining whether the timing constraints imposed to the design may be satisfied or not. It can be performed by using circuit simulation or by timing analysis. Although simulation tends to furnish the most accurate estimates, it presents the drawback of being stimuli dependent. Hence, in order to ensure that the critical situation is taken into account, one must exercise all possible input patterns. Obviously, this is not possible to accomplish due to the high complexity of current designs. To circumvent this problem, designers must rely on timing analysis. Timing analysis is an input-independent verification approach that models each combinational block of a circuit as a direct acyclic graph, which is used to estimate the critical delay. First timing analysis tools used only the circuit topology information to estimate circuit delay, thus being referred to as topological timing analyzers. However, such method may result in too pessimistic delay estimates, since the longest paths in the graph may not be able to propagate a transition, that is, may be false. Functional timing analysis, in turn, considers not only circuit topology, but also the temporal and functional relations between circuit elements. Functional timing analysis tools may differ by three aspects: the set of sensitization conditions necessary to declare a path as sensitizable (i.e., the so-called path sensitization criterion), the number of paths simultaneously handled and the method used to determine whether sensitization conditions are satisfiable or not. Currently, the two most efficient approaches test the sensitizability of entire sets of paths at a time: one is based on automatic test pattern generation (ATPG) techniques and the other translates the timing analysis problem into a satisfiability (SAT) problem. Although timing analysis has been exhaustively studied in the last fifteen years, some specific topics have not received the required attention yet. One such topic is the applicability of functional timing analysis to circuits containing complex gates. This is the basic concern of this thesis. In addition, and as a necessary step to settle the scenario, a detailed and systematic study on functional timing analysis is also presented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta Tese, Infância e maquinarias, se insere no terreno das discussões que pretendem examinar as relações entre infância e poder. Tomando como seu foco principal o Referencial Curricular Nacional para a Educação Infantil (RCN), ela pretende apontar para as formas como operam os dispositivos de governamento da infância, a partir da racionalidade governamental moderna. A investigação, de inspiração foucaultiana, propõe-se a destacar também como os aparatos de verdade sobre a infância, com seus sistemas de enunciados verdadeiros, são produzidos no interior das relações pedagógicas. Na primeira parte, faço uma releitura do processo de constituição da infância, como parte do amplo processo civilizatório da Modernidade, destacando dois conjuntos estratégicos, intimamente relacionados, o da pedagogização e o da governamentalização deste segmento da população. A noção de governamentalização é o elo que une a primeira à segunda parte do estudo, indicando os liames, os nexos, as relações recíprocas entre as racionalidades políticas e as tecnologias de poder, entre variedades de razão política e as maquinarias de constituição das subjetividades infantis Na segunda parte do estudo, realizo uma analítica de governamento da infância, a partir das proposições presentes no documento que examino. Destaco, neste exame, os modos de operar daquilo que Michel Foucault denominou de técnicas disciplinares, tecnologias da experiência de si e biopolítica. Associado às tecnologias políticas e às racionalidades de governamento, destaco, também, o RCN como um dispositivo de produção da verdade, cuja finalidade é a organização, a disseminação e o controle do saber que circula nas instituições de Educação Infantil. Analiso, ao final, como a captura da infância esteve associada aos projetos políticos do liberalismo moderno, em suas diferentes feições, e como isso tem efeitos sobre a maquinaria institucional que funciona para produzir as subjetividades infantis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo caracteriza-se como uma pesquisa exploratória-descritiva que busca analisar em uma empresa do ramo da construção civil a dicotomia sofrimento e prazer presente no canteiro de obras no processo de execução de estrutura de um edifício, cujo problema de pesquisa constitui-se em saber quais os fatores que causam sofrimento e prazer no processo de execução de estrutura em uma empresa de construção civil situada no Vale do Sinos. Os dados foram coletados através de entrevistas semi-estruturadas com quinze operários de obra. Para a análise dos dados coletados, utilizou-se a metodologia da análise de conteúdo, na modalidade de análise temática. Os resultados são apresentados em três conjuntos de categorias: dezoito categorias iniciais, posteriormente reagrupadas em dez categorias intermediárias e, por último, sintetizadas nas categorias finais: prazer gerado pelo trabalho em obra, sofrimento gerado pelo trabalho em obra e o significado do trabalho. Os resultados obtidos mostram por que os operários apreciam o trabalho em obra e as dificuldades enfrentadas por eles no canteiro e que são motivo de medo, angústia e ansiedade. Fica claro a importância da interação do grupo de operários a fim de que seja maximizada a produtividade no canteiro, assim como a necessidade do engenheiro de melhorar seu relacionamento 11 com os operários no canteiro com o intuito de aumentar a motivação do operário e sua conseqüente produtividade.Finalmente, constata-se que, mesmo estando presente um trabalho tipicamente taylorista no canteiro, que não privilegia a atividade de concepção nem o espírito criativo do operário, os operários conseguem obter momentos de prazer em seu trabalho, visto que a interação do grupo de operários na obra faz com que gostem do trabalho no canteiro apesar das dificuldades enfrentadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atualmente, pesquisadores das mais diversas áreas, tais como: Geologia, Física, Cartografia, Oceanografia, entre outras, utilizam imagens de satélite como uma fonte valiosa para a extração de informações sobre a superfície terrestre. Muitas vezes, a análise (classificação) destas imagens é realizada por métodos tradicionais sejam eles supervisionados (como o Método de Máxima Verossimilhança Gaussiana) ou nãosupervisionados (como o Método de Seleção pelo Pico do Histograma). Entretanto, pode-se utilizar as Redes Neurais Artificiais como uma alternativa para o aumento da acurácia em classificações digitais. Neste trabalho, utilizou-se imagens multi-espectrais do satélite LANDSAT 5-TM para a identificação de espécies vegetais (Mata Nativa, Eucalyptus e Acácia) em uma região próxima aos municípios de General Câmara, Santo Amaro e Taquari, no Estado do Rio Grande do Sul, Brasil. Comparou-se qualitativamente e quantitativamente os resultados obtidos pelo método de Máxima Verossimilhança Gaussiana e por uma Rede Neural Artificial Multinível com BackPropagation na classificação da área de estudo. Para tanto, parte desta área foi mapeada através de uma verificação de campo e com o auxílio de classificadores nãosupervisionados (Kohonen, que é uma Rede Neural, e o método de Seleção pelo Pico do Histograma). Com isto, foi possível coletar dois conjuntos de amostras, sendo que um deles foi utilizado para o treinamento dos métodos e o outro (conjunto de reconhecimento) serviu para a avaliação das classificações obtidas. Após o treinamento, parte da área de estudo foi classificada por ambos os métodos. Em seguida, os resultados obtidos foram avaliados através do uso de Tabelas de Contingência, considerando um nível de significância de 5%. Por fim, na maior parte dos testes realizados, a Rede Neural Artificial Multinível com BackPropagation apresentou valores de acurácia superiores ao Método de Máxima Verossimilhança Gaussiana. Assim, com este trabalho observou-se que não há diferença significativa de classificação para as espécies vegetais, ao nível de 5%, para a área de estudo considerada, na época de aquisição da imagem, para o conjunto de reconhecimento.