999 resultados para Conjuntos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os recursos hídricos superficiais e subterrâneos tem-se mostrado contaminados, cada vez mais freqüentemente, por substâncias orgânicas e inorgânicas, em nível de traços, prejudicando os seus usos mais nobres, por exemplo, abastecimento público. Este estudo teve por finalidade principal verificar a eficiência de rejeição por membranas poliméricas, de alguns compostos orgânicos tipo, naftaleno, carbofurano, tricloroetileno (TCE) e metil paration, em baixas concentrações. Empregou-se testes hidrodinâmicos de filtração, tipo "dead-end", com taxa de aplicação média de 13,16 m3.m-2.h-1 através das membranas comerciais de características distintas, uma de ultra (UE-50) e duas de nanofiltração (XN-40 e TS-80). Avaliou-se, também, a preparação de água contaminada para a filtração por membranas, através do prétratamento por oxidação do carbofurano em meio líquido, usando um desinfetante padrão, o hipoclorito de sódio. Após a oxidação desde composto, testes hidrodinâmicos de filtração foram realizados para verificar, também, a eficiência de rejeição dos sub-produtos. Por fim, foram realizados testes de envelhecimento das membranas que poderiam ser atacadas pelos compostos orgânicos em solução aquosa. Todos os ensaios foram realizados à temperatura de 25 oC, empregando pressão de filtração de 4 atm. Os compostos orgânicos foram detectados por várias técnicas, principalmente cromatografia gasosa e líquida, sequenciada por espectrometria de massas. Para acompanhar o envelhecimento das membranas, em seis meses de uso, foi empregada microscopia de força atômica, através da medição de porosidade e de rugosidade superficiais. Em termos médios, nas três faixas de concentrações testadas, o metil paration foi o composto mais eficientemente removido pelas membranas em todos os testes realizados, com 59,82 % de rejeição pela membrana UE-50, 43,97 % pela membrana XN-40 e 56,12 % pela TS-80. O TCE foi rejeitado 28,42 %, 23,87 % e 21,42 % pelas membranas UE-50, XN-40 e TS-80, respectivamente. O naftaleno, foi rejeitado 20,61 %, 14,85 % e 12,63 % pelas membranas UE-50, XN-40 e TS-80, respectivamente. Para o carbofurano, a percentagem de rejeição pelas membranas UE-50, XN-40 e TS-80 foi, respectivamente, de 4,51 %, 4,88 % e 2,92 %. Dentre todas as membranas testadas, a membrana de polisulfona UE-50, de ultrafiltração, produziu a melhor eficiência na rejeição de metil paration, tricloroetileno e naftaleno, com 59,82 %, 28,43 % e 20,61 % de rejeição, na ordem. A membrana de poliamida-uréia TS-80, de nanofiltração, proporcionou maior rejeição (56,12 %) que a membrana de poliamida XN-40, de nanofiltração (43,97 %), para o metil paration. Ao contrário, a membrana XN-40 mostrou uma rejeição maior (23,87 %) que a TS-80 para o tricloroetileno (21,42 %). Para o naftaleno, a membrana XN-40 também mostrou uma rejeição (14,85 %) maior que a TS-80 (12,63 %). A eficiência de rejeição do carbofurano foi a menor de todos os compostos ensaiados, independente da membrana. Se for assumido que a membrana de ultra deverá ser seguida pela de nanofiltração, a eficiência conjunta UE-50 + XN-40 será, em termos médios, para o naftaleno, carbofurano, tricloroetileno e metil paration, respectivamente, 32,24%, 9,19%, 45,60% e 77,44%. Para o conjunto UE-50 + TS-80 será de: 30,64%, 7,29%, 43,92% e 83,51%, não havendo diferenças estatisticamente significantes entre os dois conjuntos. Nos testes de pré-tratamento por oxidação do carbofurano, observou-se a formação do carbofurano hidrolisado e mais dois sub-produtos principais, SP-1 e SP-2, que foram rejeitados, 47,85 % e 92,80 %, respectivamente, pela membrana XN-40. Na verificação das perdas das características morfológicas pelo uso prolongado das membranas, sob ataque de compostos orgânicos em baixa concentração ("envelhecimento") verificou-se que a rugosidade (0, 3 e 6 meses) e a porosidade (0, 3 e 6 meses) foram consideravelmente alteradas. A porosidade da membrana XN-40 aumentou 42,86% e a da membrana TS-80 aumentou 34,57%, quando imersas por 3 meses. A rugosidade das membranas XN-40 e TS-80 nos testes de imersão por 3 meses, aumentou 5,37% e 291% respectivamente. Nos testes de imersão em 6 meses, o aumento da porosidade das membranas XN-40 e TS-80 foi de 29,67% e 18,52% respectivamente, enquanto que a rugosidade aumentou 25,27% e 155% para as mesmas. Conclui-se que membranas de nanofiltração poliméricas necessitam de prétratamentos para rejeitar, com segurança, e colocar dentro dos padrões de potabilidade, águas contaminadas com os compostos orgânicos tipo testados e que seu uso prolongado irá afetar as suas características de rejeição dos contaminates.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The recent advances in CMOS technology have allowed for the fabrication of transistors with submicronic dimensions, making possible the integration of tens of millions devices in a single chip that can be used to build very complex electronic systems. Such increase in complexity of designs has originated a need for more efficient verification tools that could incorporate more appropriate physical and computational models. Timing verification targets at determining whether the timing constraints imposed to the design may be satisfied or not. It can be performed by using circuit simulation or by timing analysis. Although simulation tends to furnish the most accurate estimates, it presents the drawback of being stimuli dependent. Hence, in order to ensure that the critical situation is taken into account, one must exercise all possible input patterns. Obviously, this is not possible to accomplish due to the high complexity of current designs. To circumvent this problem, designers must rely on timing analysis. Timing analysis is an input-independent verification approach that models each combinational block of a circuit as a direct acyclic graph, which is used to estimate the critical delay. First timing analysis tools used only the circuit topology information to estimate circuit delay, thus being referred to as topological timing analyzers. However, such method may result in too pessimistic delay estimates, since the longest paths in the graph may not be able to propagate a transition, that is, may be false. Functional timing analysis, in turn, considers not only circuit topology, but also the temporal and functional relations between circuit elements. Functional timing analysis tools may differ by three aspects: the set of sensitization conditions necessary to declare a path as sensitizable (i.e., the so-called path sensitization criterion), the number of paths simultaneously handled and the method used to determine whether sensitization conditions are satisfiable or not. Currently, the two most efficient approaches test the sensitizability of entire sets of paths at a time: one is based on automatic test pattern generation (ATPG) techniques and the other translates the timing analysis problem into a satisfiability (SAT) problem. Although timing analysis has been exhaustively studied in the last fifteen years, some specific topics have not received the required attention yet. One such topic is the applicability of functional timing analysis to circuits containing complex gates. This is the basic concern of this thesis. In addition, and as a necessary step to settle the scenario, a detailed and systematic study on functional timing analysis is also presented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta Tese, Infância e maquinarias, se insere no terreno das discussões que pretendem examinar as relações entre infância e poder. Tomando como seu foco principal o Referencial Curricular Nacional para a Educação Infantil (RCN), ela pretende apontar para as formas como operam os dispositivos de governamento da infância, a partir da racionalidade governamental moderna. A investigação, de inspiração foucaultiana, propõe-se a destacar também como os aparatos de verdade sobre a infância, com seus sistemas de enunciados verdadeiros, são produzidos no interior das relações pedagógicas. Na primeira parte, faço uma releitura do processo de constituição da infância, como parte do amplo processo civilizatório da Modernidade, destacando dois conjuntos estratégicos, intimamente relacionados, o da pedagogização e o da governamentalização deste segmento da população. A noção de governamentalização é o elo que une a primeira à segunda parte do estudo, indicando os liames, os nexos, as relações recíprocas entre as racionalidades políticas e as tecnologias de poder, entre variedades de razão política e as maquinarias de constituição das subjetividades infantis Na segunda parte do estudo, realizo uma analítica de governamento da infância, a partir das proposições presentes no documento que examino. Destaco, neste exame, os modos de operar daquilo que Michel Foucault denominou de técnicas disciplinares, tecnologias da experiência de si e biopolítica. Associado às tecnologias políticas e às racionalidades de governamento, destaco, também, o RCN como um dispositivo de produção da verdade, cuja finalidade é a organização, a disseminação e o controle do saber que circula nas instituições de Educação Infantil. Analiso, ao final, como a captura da infância esteve associada aos projetos políticos do liberalismo moderno, em suas diferentes feições, e como isso tem efeitos sobre a maquinaria institucional que funciona para produzir as subjetividades infantis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo caracteriza-se como uma pesquisa exploratória-descritiva que busca analisar em uma empresa do ramo da construção civil a dicotomia sofrimento e prazer presente no canteiro de obras no processo de execução de estrutura de um edifício, cujo problema de pesquisa constitui-se em saber quais os fatores que causam sofrimento e prazer no processo de execução de estrutura em uma empresa de construção civil situada no Vale do Sinos. Os dados foram coletados através de entrevistas semi-estruturadas com quinze operários de obra. Para a análise dos dados coletados, utilizou-se a metodologia da análise de conteúdo, na modalidade de análise temática. Os resultados são apresentados em três conjuntos de categorias: dezoito categorias iniciais, posteriormente reagrupadas em dez categorias intermediárias e, por último, sintetizadas nas categorias finais: prazer gerado pelo trabalho em obra, sofrimento gerado pelo trabalho em obra e o significado do trabalho. Os resultados obtidos mostram por que os operários apreciam o trabalho em obra e as dificuldades enfrentadas por eles no canteiro e que são motivo de medo, angústia e ansiedade. Fica claro a importância da interação do grupo de operários a fim de que seja maximizada a produtividade no canteiro, assim como a necessidade do engenheiro de melhorar seu relacionamento 11 com os operários no canteiro com o intuito de aumentar a motivação do operário e sua conseqüente produtividade.Finalmente, constata-se que, mesmo estando presente um trabalho tipicamente taylorista no canteiro, que não privilegia a atividade de concepção nem o espírito criativo do operário, os operários conseguem obter momentos de prazer em seu trabalho, visto que a interação do grupo de operários na obra faz com que gostem do trabalho no canteiro apesar das dificuldades enfrentadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atualmente, pesquisadores das mais diversas áreas, tais como: Geologia, Física, Cartografia, Oceanografia, entre outras, utilizam imagens de satélite como uma fonte valiosa para a extração de informações sobre a superfície terrestre. Muitas vezes, a análise (classificação) destas imagens é realizada por métodos tradicionais sejam eles supervisionados (como o Método de Máxima Verossimilhança Gaussiana) ou nãosupervisionados (como o Método de Seleção pelo Pico do Histograma). Entretanto, pode-se utilizar as Redes Neurais Artificiais como uma alternativa para o aumento da acurácia em classificações digitais. Neste trabalho, utilizou-se imagens multi-espectrais do satélite LANDSAT 5-TM para a identificação de espécies vegetais (Mata Nativa, Eucalyptus e Acácia) em uma região próxima aos municípios de General Câmara, Santo Amaro e Taquari, no Estado do Rio Grande do Sul, Brasil. Comparou-se qualitativamente e quantitativamente os resultados obtidos pelo método de Máxima Verossimilhança Gaussiana e por uma Rede Neural Artificial Multinível com BackPropagation na classificação da área de estudo. Para tanto, parte desta área foi mapeada através de uma verificação de campo e com o auxílio de classificadores nãosupervisionados (Kohonen, que é uma Rede Neural, e o método de Seleção pelo Pico do Histograma). Com isto, foi possível coletar dois conjuntos de amostras, sendo que um deles foi utilizado para o treinamento dos métodos e o outro (conjunto de reconhecimento) serviu para a avaliação das classificações obtidas. Após o treinamento, parte da área de estudo foi classificada por ambos os métodos. Em seguida, os resultados obtidos foram avaliados através do uso de Tabelas de Contingência, considerando um nível de significância de 5%. Por fim, na maior parte dos testes realizados, a Rede Neural Artificial Multinível com BackPropagation apresentou valores de acurácia superiores ao Método de Máxima Verossimilhança Gaussiana. Assim, com este trabalho observou-se que não há diferença significativa de classificação para as espécies vegetais, ao nível de 5%, para a área de estudo considerada, na época de aquisição da imagem, para o conjunto de reconhecimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo tem a finalidade de analisar experiências de interação Universidade – Empresa, em projetos do Instituto de Biotecnologia - ( IB ) da Universidade de Caxias do Sul – ( UCS ), a qual, como Instituição produtora e disseminadora de conhecimentos, busca atuar ativamente na transformação tecnológica da Região Nordeste do Estado do RS. Procura-se analisar as experiências de interação entre os pesquisadores da área de biotecnologia da UCS, as empresas do setor produtivo e a comunidade, identificando possíveis mecanismos e problemas. O IB foi criado para que, através dos resultados de suas pesquisas, possa contribuir efetivamente com os anseios da Comunidade a qual está inserida. Este estudo se constitui na análise de múltiplos casos de interação em oito projetos desenvolvidos no IB. Os dados foram coletados através de entrevistas com os coordenadores dos projetos no IB e com os responsáveis pela interação nas organizações parceiras, num total de 16 entrevistas.O estudo evidencia que as interações ocorrem a partir de contatos informais, baseadas na amizade entre os parceiros e oriundas, principalmente, do esforço do pesquisador. Os entrevistados acentuam a necessidade de uso de mecanismos formais de interação para agilizar e viabilizar projetos conjuntos do IB com empresas do setor produtivo e a comunidade, através de parcerias consolidadas. Finalmente, considera-se que, para assegurar o crescimento da interação com a comunidade, é urgente possibilitar, através de mecanismos formais, que a pesquisa científica desenvolvida no Instituto de biotecnologia da UCS volte-se prioritariamente para a identificação de problemas regionais, buscando as respectivas soluções, na perspectiva do desenvolvimento integrado da Região.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa investiga os efeitos dos anúncios comerciais sobre a qualidade visual dos centros de comércio e sobre a legibilidade das mensagens veiculadas por esses elementos, segundo a percepção do pedestre. O objetivo central é determinar subsídios teóricos que possam fundamentar diretrizes a fixação de anúncios comerciais no meio urbano, de modo a garantir a qualidade visual do espaço construído e a legibilidade das mensagens. Adota-se a cidade de Pelotas (RS) como objeto de estudo por possuir em seu centro de comércio questões comuns à maioria das cidades brasileiras: significativa concentração de anúncios comerciais sobre conjuntos arquitetônicos, dentre os quais há bens de interesse histórico e cultural, os quais estão sendo prejudicados em virtude de anúncios comerciais fixados sobre suas fachadas. Os métodos de coleta de dados aplicados neste estudo fazem parte dos utilizados na área de pesquisa relativa ao Ambiente e Comportamento. Fundamentado na natureza das informações necessárias e nas particularidades relativas aos estudos urbanos, os métodos de coleta de dados são sistematizados em duas etapas: o levantamento de arquivo e o levantamento de campo. Esse último divide-se em observações das características físicas, levantamento físico, representação do ambiente urbano e questionários. Cabe destacar que nesta investigação a análise e a comparação dos modos de percepção do ambiente por distintos indivíduos se faz necessária, à medida que os centros de comércio são áreas freqüentadas por diversos tipos de transeuntes. Quanto a isso, define-se ao estudo quatro grupos de usuários: os arquitetos e urbanistas, os publicitários, os comerciantes e os consumidores. Os resultados desta investigação demonstram que os anúncios comerciais quando dispostos desordenadamente sobre o ambiente prejudicam a qualidade visual das cenas urbanas, bem como reduzem o grau de legibilidade das mensagens veiculadas por anúncios comerciais. Fica constatado que não podem ser pensadas diretrizes, relacionadas às características físicas dos anúncios comerciais, que ignorem o aspecto formal do conjunto arquitetônico: é necessário haver normas que visem à ordenação da aparência do ambiente, as quais contemplem os aspectos formais dos anúncios comerciais e das construções. Espera-se que os dados encontrados despertem o interesse ao desenvolvimento de outros estudos que abordem essa problemática, bem como de políticas urbanas de reordenamento e de preservação da aparência dos centros de comércios.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A partir da perspectiva foucaultiana do governo, utilizando-me das ferramentas analíticas de tecnologias de governo e de racionalidades políticas, analiso um conjunto de artigos publicados em revistas especializadas, em anais de encontros científicos, nacionais e internacionais, além de teses, dissertações e trabalhos apresentados em conferências, congressos e em aulas virtuais. Demonstro como a Etnomatemática, enquanto um dispositivo de governo multicultural, operacionaliza-se por meio do exercício do que denominei de tecnologias do multiculturalismo, (re)atualizando modos de governo multiculturais específicos. A análise produz dois conjuntos demonstrativos de tecnologias: Ordenando poder-saber e Esculpindo o eu. No primeiro conjunto, descrevo as tecnologias de Produção de identidades e as de Hierarquização de diferenças, mostrando como elas se constituem em instrumentos de governo, comportam todo um conjunto de níveis de aplicação e de alvos, hierarquizam modos de existência singulares e os fixam em uma identidade etnomatematizada; no segundo, analiso as tecnologias do eu Reflexivo, Sentimental, Cidadão e Livre, demonstrando como o dispositivo etnomatemático governa a subjetividade, põe a funcionar essas tecnologias, combinando-as com variadas técnicas, procedimentos e práticas específicas de governo. Ao concluir esta pesquisa, argumento sobre a produtividade analítica que a perspectiva foucaultiana oferece para, quem sabe, transgredir fronteiras que conformam os indivíduos em uma identidade (re)conhecida e (re)conhecível, criar experiências curriculares e educacionais renovadas pela possibilidade de uma constante atualização de modos de existência para além de uma subjetividade etnomatematizada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A visualização em tempo real de cenas complexas através de ambientes de rede é um dos desafios na computação gráfica. O uso da visibilidade pré-computada associada a regiões do espaço, tal como a abordagem dos Potentially Visible Sets (PVS), pode reduzir a quantidade de dados enviados através da rede. Entretanto, o PVS para algumas regiões pode ainda ser bastante complexo, e portanto uma estratégia diferente para diminuir a quantidade de informações é necessária. Neste trabalho é introduzido o conceito de Smart Visible Set (SVS), que corresponde a uma partição das informações contidas no PVS segundo o ângulo de visão do observador e as distâncias entre as regiões. Dessa forma, o conceito de “visível” ou de “não-visível” encontrado nos PVS é estendido. A informação referente ao conjunto “visível” é ampliada para “dentro do campo de visão” ou “fora do campo de visão” e “longe” ou “perto”. Desta forma a informação referente ao conjunto “visível” é subdividida, permitindo um maior controle sobre cortes ou ajustes nos dados que devem ser feitos para adequar a quantidade de dados a ser transmitida aos limites impostos pela rede. O armazenamento dos SVS como matrizes de bits permite ainda uma interação entre diferentes SVS. Outros SVS podem ser adicionados ou subtraídos entre si com um custo computacional muito pequeno permitindo uma rápida alteração no resultado final. Transmitir apenas a informação dentro de campo de visão do usuário ou não transmitir a informação muito distante são exemplos dos tipos de ajustes que podem ser realizados para se diminuir a quantidade de informações enviadas. Como o cálculo do SVS depende da existência de informação de visibilidade entre regiões foi implementado o algoritmo conhecido como “Dual Ray Space”, que por sua vez depende do particionamento da cena em regiões. Para o particionamento da cena em uma BSP-Tree, foi modificada a aplicação QBSP3. Depois de calculada, a visibilidade é particionada em diferentes conjuntos através da aplicação SVS. Finalmente, diferentes tipos de SVS puderam ser testados em uma aplicação de navegação por um cenário 3D chamada BSPViewer. Essa aplicação também permite comparações entre diferentes tipos de SVS e PVS. Os resultados obtidos apontam o SVS como uma forma de redução da quantidade de polígonos que devem ser renderizados em uma cena, diminuindo a quantidade de informação que deve ser enviada aos usuários. O SVS particionado pela distância entre as regiões permite um corte rápido na informação muito distante do usuário. Outra vantagem do uso dos SVS é que pode ser realizado um ordenamento das informações segundo sua importância para o usuário, desde que uma métrica de importância visual tenha sido definida previamente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A mineração de dados constitui o processo de descoberta de conhecimento interessante, com a utilização de métodos e técnicas que permitem analisar grandes conjuntos de dados para a extração de informação previamente desconhecida, válida e que gera ações úteis, de grande ajuda para a tomada de decisões estratégicas. Dentre as tarefas de mineração de dados, existem aquelas que realizam aprendizado não-supervisionado, o qual é aplicado em bases de dados não-classificados, em que o algoritmo extrai as características dos dados fornecidos e os agrupa em classes. Geralmente, o aprendizado não-supervisionado é aplicado em tarefas de agrupamento, que consistem em agrupar os dados de bancos de dados volumosos, com diferentes tipos de dados em classes ou grupos de objetos que são similares dentro de um mesmo grupo e dissimilares em diferentes grupos desses bancos de dados, de acordo com alguma medida de similaridade. Os agrupamentos são usados como ponto de partida para futuras investigações. Este trabalho explora, mediante a realização de um estudo de caso, o uso de agrupamento como tarefa de mineração de dados que realiza aprendizado nãosupervisionado, para avaliar a adequação desta tecnologia em uma base de dados real da área de saúde. Agrupamento é um tema ativo em pesquisas da área pelo seu potencial de aplicação em problemas práticos. O cenário da aplicação é o Sistema de Informações Hospitalares do SUS, sob a gestão da Secretaria Estadual de Saúde do Rio Grande do Sul. Mensalmente, o pagamento de um certo número de internações é bloqueado, uma vez que a cobrança de internações hospitalares é submetida a normas do SUS e a critérios técnicos de bloqueio estabelecidos pela Auditoria Médica da SES para verificar a ocorrência de algum tipo de impropriedade na cobrança dos procedimentos realizados nessas internações hospitalares. A análise de agrupamento foi utilizada para identificar perfis de comportamentos ou tendências nas internações hospitalares e avaliar desvios ou outliers em relação a essas tendências e, com isso, descobrir padrões interessantes que auxiliassem na otimização do trabalho dos auditores médicos da SES. Buscou-se ainda compreender as diferentes configurações de parâmetros oferecidos pela ferramenta escolhida para a mineração de dados, o IBM Intelligent Miner, e o mapeamento de uma metodologia de mineração de dados, o CRISP-DM, para o contexto específico deste estudo de caso. Os resultados deste estudo demonstram possibilidades de criação e melhora dos critérios técnicos de bloqueio das internações hospitalares que permitem a otimização do trabalho de auditores médicos da SES. Houve ainda ganhos na compreensão da tecnologia de mineração de dados com a utilização de agrupamento no que se refere ao uso de uma ferramenta e de uma metodologia de mineração de dados, em que erros e acertos evidenciam os cuidados que devem ser tomados em aplicações dessa tecnologia, além de contribuírem para o seu aperfeiçoamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho consistiu no pós-tratamento de efluente de reator anaeróbio, em um sistema de reator seqüencial em batelada (RSB), com vistas à remoção biológica de nitrogênio e fósforo. Primeiramente, em escala de laboratório, verificou-se a eficiência de três RSBs, com ciclos operacionais diferenciados, tratando o efluente produzido por um reator seqüencial em batelada anaeróbio (RSBAn), alimentado por esgoto sintético, caracteristicamente doméstico. Neste experimento, também acoplou-se um sistema de aquisição de dados aos RSBs, para monitorar continuamente os parâmetros pH, redox e OD, com o objetivo de obter pontos inferenciais de controle dos processos de nitrificação, desnitrificação e remoção biológica de fósforo. Subseqüente a este experimento, desenvolveu-se um sistema de RSB em escala piloto, tratando o efluente anaeróbio real de um UASB (Upflow Anaerobic Sludge Blanket), no intuito de analisar o efeito da mudança de escala e do tipo de esgoto, que passou de sintético a real, na performance do RSB. No experimento em escala de laboratório, os resultados obtidos demonstraram boas eficiências de remoção de DQO e SS, e uma ótima eficiência no processo de nitrificação. As eficiências médias de remoção de DQO, SS e nitrificação, foram respectivamente de 93,3%, 90,7% e 98,9%. O processo de desnitrificação não desenvolveu-se satisfatoriamente devido às baixas concentrações de matéria orgânica do efluente anaeróbio. O processo de remoção biológica de fósforo, além das baixas DQO afluentes, foi prejudicado pelas idades de lodo extremamente longas estabelecidas nesta fase experimental, em função da aplicação da estratégia de controle de processo baseada na concentração de SSV no licor. Objetivando-se aumentar a concentração de matéria orgânica imediatamente disponível no afluente, com o conseqüente acréscimo de eficiência nos processos de desnitrificação e remoção biológica de fósforo, introduziu-se um pré-fermentador, para gerar metade do efluente anaeróbio a ser tratado nos RSBs. O controle do processo passou a ser efetuado através da aplicação de uma idade de lodo pré-estabelecida de 20 dias. Observou-se um aumento bastante significativo do processo de desnitrificação, atingindo uma eficiência da ordem de 70,4%. No entanto, as maiores concentrações de matéria orgânica solúvel, com a introdução do pré-fermentador, não foram suficientes para estimular o desenvolvimento das bactérias removedoras de fósforo. Um aumento de DQO do esgoto sintético foi necessário para permitir a simultaneidade dos processos de desnitrificação e remoção de fósforo. Porém, apesar de apresentar ciclos operacionais com eficiências de 100% de remoção de fósforo, este processo não mostrou-se confiável, alternando entre fases de boas, médias e más eficiências. Provavelmente as idades de lodo, ainda muito altas para promover a remoção de fósforo do sistema, justificam a permanência bastante irregular na eficiência deste processo. Neste período, a concentração média de DQO necessária para atingir-se uma eficiência satisfatória nos processos conjuntos de nitrificação e desnitrificação, foi de 644,6 mg/L. As seguintes eficiências foram observadas: 95,8% na remoção de DQO, 98,7% na nitrificação, 76,8% na desnitrificação e 74,5% na remoção de nitrogênio. O acompanhamento "on line" de pH, redox e OD mostrou-se como uma eficiente ferramenta inferencial no controle de processos biológicos, principalmente daqueles referentes à remoção de nitrogênio. Dentre os três parâmetros monitorados, o pH apresentouse como o mais representativo. No experimento em escala piloto, o processo de nitrificação não desenvolveu-se possivelmente devido ao efeito conjunto de baixos tempos de detenção nas etapas aeróbias dos ciclos operacionais dos RSBs, com a ação tóxica de sulfetos produzidos no tratamento anaeróbio. O processo de remoção biológica de fósforo, similarmente ao experimento em escala de bancada, não mostrou-se confiável, apresentando períodos alternados de eficiência. Por fim, com vistas a verificar o desenvolvimento de processo inibitório por efluentes de tratamento anaeróbio em sistemas aeróbios, realizou-se uma série de testes de inibição com o efluente anaeróbio e também especificamente com sulfeto. Os testes respirométricos (DBO última e em batelada), foram de essencial importância para analisar a tratabilidade biológica de esgoto contendo composto tóxico. Pôde-se comprovar que o sulfeto, presente no efluente anaeróbio real, ou o efeito de sua combinação com outras substâncias contidas no lodo ativado, alterou a cinética dos processos biológicos desenvolvidos no sistema de tratamento do tipo lodo ativado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A classificação é uma das tarefas da Mineração de Dados. Esta consiste na aplicação de algoritmos específicos para produzir uma enumeração particular de padrões. Já a classificação é o processo de gerar uma descrição, ou um modelo, para cada classe a partir de um conjunto de exemplos dados. Os métodos adequados e mais utilizados para induzir estes modelos, ou classificadores, são as árvores de decisão e as regras de classificação. As regras e árvores de decisão são populares, principalmente, por sua simplicidade, flexibilidade e interpretabilidade. Entretanto, como a maioria dos algoritmos de indução particionam recursivamente os dados, o processamento pode tornar-se demorado, e a árvore construída pode ser muito grande e complexa, propensa ao overfitting dos dados, que ocorre quando o modelo aprende detalhadamente ao invés de generalizar. Os conjuntos de dados reais para aplicação em Mineração de Dados são, atualmente, muito grandes, e envolvem vários milhares de registros, sendo necessária, também, uma forma de generalizar estes dados. Este trabalho apresenta um novo modelo de indução de classificadores, em que o principal diferencial do algoritmo proposto é a única passada pelo conjunto de treinamento durante o processo de indução, bem como a sua inspiração proveniente de um Sistema Multiagente. Foi desenvolvido um protótipo, o Midas, que foi validado e avaliado com dados de repositórios. O protótipo também foi aplicado em bases de dados reais, com o objetivo de generalizar as mesmas. Inicialmente, foi estudado e revisado o tema de Descoberta de Conhecimento em Bases de Dados, com ênfase nas técnicas e métodos de Mineração de Dados. Neste trabalho, também são apresentadas, com detalhes, as árvores e regras de decisão, com suas técnicas e algoritmos mais conhecidos. Finalizando, o algoritmo proposto e o protótipo desenvolvido são apresentados, bem como os resultados provenientes da validação e aplicação do mesmo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa aborda o processo de formação de lideranças empresariais, estabelecendo uma tipologia acerca dos diferentes perfis de liderança verificados na empresa Dana-Albarus S.A. Indústria e Comércio. Objetiva-se analisar, comparativamente, a influência da vida pessoal e profissional na formação de líderes, bem como, o conceito de liderança, privilegiado no grupo Dana-Albarus, à luz das teorias administrativas. Os dados foram coletados com base em entrevistas semiestruturadas, realizadas com seis executivos da empresa Dana-Albarus. Para a análise de dados coletados, utilizou-se a metodologia de análise de conteúdo, na modalidade de análise temática. Os resultados são apresentados em três conjuntos de categorias: as vinte categorias iniciais foram reagrupadas em oito categorias intermediárias e, posteriormente, sintetizadas em quatro categorias finais. A análise subjetiva dos dados levou a compreender, em maior profundidade, o caráter dos executivos, concluindo-se que estes apresentam características de líderes em suas personalidades. A partir deste estudo, pode-se verificar que os executivos sofrem influências positivas e negativas desde sua infância, as quais formarão sua personalidade e, consequentemente, suas atitudes pessoais e profissionais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O volume de informações armazenadas e representadas em XML cresce rapidamente, abrangendo desde a Web até bancos de dados corporativos. Nesse contexto, surge a necessidade de mecanismos de recuperação de dados nesse formato que sejam, ao mesmo tempo, mais eficientes e mais eficazes. Várias propostas de linguagens de consulta têm sido feitas, dentre as quais podem ser citadas XQL, XML-QL e Quilt. Essas linguagens, todas textuais, são mais indicadas para manipulação programática ou para usuários experientes. Visando atingir também os usuários menos experientes, foram propostas linguagens visuais, tais como XML-GL e Xing. Todas essas linguagens, entretanto, apresentam duas características comuns: a) o usuário precisa conhecer, pelo menos em um certo nível, a estrutura interna dos documentos; b) a mesma informação, se armazenada de formas diferentes, exige instruções de consulta diferentes. A solução para esses problemas apresentada neste trabalho envolve a utilização de um modelo conceitual para representar os conceitos e as relações entre conceitos que ocorrem em documentos XML pertencentes a um determinado domínio de problema. O modelo conceitual é representado por uma ontologia do domínio do problema. Essa associação permite que consultas possam ser elaboradas tendo como base os conceitos da ontologia. Para permitir a associação da ontologia a conjuntos de documentos XML, apresentam-se regras de mapeamento que permitem definir se um documento XML é compatível com uma determinada ontologia. A partir dessa definição, propõe-se uma linguagem visual para consultas a documentos XML com base em ontologias, e apresenta-se uma proposta de interface visual para essa linguagem.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um dos principais desafios para o século XXI é o uso sustentável dos recursos hídricos. A agricultura é a maior usuária desse recurso, sendo responsável por aproximadamente 70% dos gastos globais de água. Para o uso racional da água é necessário o conhecimento das propriedades hidráulicas do solo na condição de não-saturação. A simulação do movimento da água no solo através da modelagem é uma ferramenta importante no entendimento do sistema solo-água-planta, pois permite a previsão e estudo do comportamento da redistribuição da água no solo de maneira eficiente. Porém a forte dependência entre os parâmetros hidráulicos do solo (teor de água, potencial matricial e condutividade hidráulica) fazem da modelagem um assunto complicado, necessitando de modelos numéricos que utilizem intervalos discretos de tempo e espaço. Esses intervalos devem ser suficientemente pequenos para que dentro de um intervalo as variações dos parâmetros hidráulicos sejam insignificantes. Nesta tese é proposto um algoritmo para a descrição do movimento vertical da água no solo, definindo o intervalo de tempo como função de uma variação máxima admissível do teor de água. O algoritmo foi testado para alguns conjuntos de dados hidráulicos de solos, utilizando as condições de contorno de um experimento de perfil instantâneo. A eficiência do algoritmo foi verificada em situações práticas, como na previsão do teor de água na Capacidade de Campo e na predição do tempo para ser atingida determinada condição de umidade no solo. Utilizando o algoritmo, também foram estudados o comportamento da retenção e dos parâmetros de condutividade em relação aos parâmetros de drenagem. Concluiu-se que o algoritmo descreve adequadamente o processo de redistribuição de água no solo utilizando intervalos suficientemente pequenos de tempo e espaço; a forma de discretização do tempo não comprometeu a acurácia das medidas; a previsão do teor de água na Capacidade de Campo e do tempo para ser atingida determinada condição de umidade no solo foram satisfatórias; e o algoritmo permite o estudo das relações entre os parâmetros hidráulicos do solo.