329 resultados para Simplicidade
Resumo:
O emprego de cromatografia líquida de alta eficiência de interação hidrofílica (HILIC) foi estudado visando a separação e a quantificação dos aminoácidos essenciais. Alguns parâmetros foram testados, tais como a composição da fase móvel e a velocidade do fluxo. Determinou-se, ainda, o limite de quantificação, a linearidade e a repetibilidade desta técnica. Os resultados obtidos indicaram as vantagens desta metodologia em termos de tempo, economia e simplicidade, quando comparada a outras técnicas de determinação dos aminoácidos, uma vez que dispensa a derivação pré-coluna e permite trabalhar em modo isocrático. A sua aplicação, na análise de frações cromatográficas de hidrolisados de caseína, revelou a importância da HILIC na avaliação nutricional destas preparações.
Resumo:
O método convencional de detecção de Salmonella spp., além de trabalhoso, consome longo tempo, necessitando-se normalmente de 4 a 5 dias para a confirmação da presença dessa bactéria no alimento. Portanto, o emprego de métodos rápidos e simples é importante para o diagnóstico laboratorial de toxinfecção alimentar e para o controle de qualidade. O objetivo principal deste trabalho foi a padronização de ensaio imunoenzimático-ELISA para detecção de Salmonella Enteritidis em alimentos. O ensaio utilizou anticorpos policlonais para flagelina produzidos em coelho. O anti-soro apresentou pouca reação cruzada com os sorotipos de Salmonella e as diferentes espécies de enterobactérias testadas. A sensibilidade do ensaio foi de 10(4) células/mL, quando testado em cultivo puro. O conjugado peroxidase manteve-se estável durante dois meses a 4ºC e o seu uso deve ser exclusivamente durante este tempo. O ensaio padronizado apresentou simplicidade e rapidez, com sensibilidade de 1 célula/25g de maionese de batata e cenoura, após enriquecimento em água peptonada tamponada durante 24 horas a 37°C, sem necessidade de enriquecimento seletivo.
Resumo:
O objectivo deste trabalho foi o desenvolvimento e validação de uma metodologia analítica para a determinação de clorpromazina em sangue total, tendo a protriptilina sido usada como padrão interno. A extracção e purificação dos analitos foi efectuada por extracção em fase sólida com colunas Oasis® HLB, e análise posterior por cromatografia gasosa com detector de espectrometria de massa de impacto electrónico (GC/EI-MS). Para a preparação das curvas de calibração foram fortificadas diariamente amostras de sangue branco com concentrações crescentes de clorpromazina entre 0,01 e 5 µg/mL. Foi utilizado um modelo de regressão linear, sendo os coeficientes de correlação superiores a 0,998. Os coeficientes de variação e os erros relativos foram respectivamente inferiores a 12 e 13%, cumprindo assim critérios internacionalmente aceites para a validação de métodos bioanalíticos. Foram também estudados os limites de detecção e quantificação, sendo de 3 e 10 ng/mL respectivamente. A interferência de outras substâncias foi excluída por análise de dez amostras brancas de sangue. O rendimento médio do método foi de 81%. Em virtude da sua simplicidade e rapidez, este método pode ser aplicado na determinação deste antipsicótico em amostras de sangue total, sendo adequado para análises de rotina no âmbito da toxicologia clínica e forense.
Resumo:
Em Portugal, inicia-se em 1959 um primeiro ciclo de construção do Metropolitano de Lisboa acompanhado por um entendimento específico da valorização plástica dos espaços públicos do nossopaís. A decisão de animação dos espaços subterrâneos de acesso aos comboios, dadas ascondicionantes específicas da vida portuguesa, obriga a práticas de austeridade e restrição ornamental adoptando para a arquitectura das novas estações do metropolitano um modelo-tipo, caracterizado pela pequena escala, simplicidade e funcionalidade.A escolha sobre o azulejo como elemento decorativo. Não só por ser um material de longa tradição em Portugal e permitir assim uma renovação actualizada no seu uso, como também o seu baixo preço,manutenção fácil e durabilidade, resultando no revestimento eficaz de vastas superfícies morais emespaços públicos de forte visibilidade. Neste período a concepção plástica é entregue a Maria Keil, que perante a racionalidade funcionalista posta na escolha do azulejo e apesar da austeridade das suaspropostas, recorrendo a padronagens abstractas e seriadas, adopta uma linguagem resolutamente contemporânea, revelando-se um entendimento inteligente das qualidades e possibilidades decorativas do azulejo, renovando as suas potencialidades artísticas
O elemento revolucinário na cidade industrial de Hard Times: do utilitarismo ao valor do senso comum
Resumo:
Na sequência da leitura que fazem da obra Hard Times, Edwin Percy Whipple e John Ruskin acusam Charles Dickens de não compreender a filosofia utilitarista e de revelar falta de rigor no tratamento dos assuntos que a esta filosofia dizem respeito. Este artigo procura demonstrar que Dickens não pretende apresentar uma teoria político-económica completa e precisa através de Hard Times. O autor procura mostrar a necessidade da entrada da fantasia na cidade industrial e utilitarista de Coketown e esta obra deverá ser observada como um veículo de reflexão e de crítica, bem como um movimento revolucionário, na medida em que resulta de um exercício artístico que sugere uma nova ordem e que permite uma transmissão de ideias cujo valor deverá ser considerado, ainda que possam revelar a simplicidade do senso comum.
Resumo:
Neste trabalho é apresentado um estudo sobre o comportamento dinâmico de sistemas flexíveis com interação viga-água. Especificamente, é escolhida uma barragem freqüentemente encontrada em problemas de engenharia de irrigação e represas. O modelo matemático utilizado para descrever tal fenômeno tem como variáveis principais a pressão hidrodinâmica e os deslocamentos horizontais da barragem. Uma vez formuladas as equações governantes de tal sistema, que resultam em uma equação de onda para a pressão e uma equação de Euler-Bernoulli para os deslocamentos, é utilizada a técnica de separação de variáveis para proceder à sua solução. Por simplicidade, assumiu-se que no modelo não havia o efeito de onda da superfície livre. Primeiro, foi resolvida a equação para a pressão, sendo calculadas as suas componentes temporais e espaciais. Depois, foi resolvida a equação de Euler-Bernoulli junto com a condição de interface. Foram simulações para o material específico, e apresentados os resultados conseguidos. No final do trabalho são enunciadas as conclusões pertinentes.
Resumo:
Buscando contribuir na discussão sobre a validade de uma visão ecológica sobre os sistemas produtivos, este trabalho estuda o caso de uma empresa, em Caxias do Sul, que está implementando tecnologia de Produção Mais Limpa. Depois de descrever o processo de implantação desta tecnologia e de avaliar os resultados econômicos e ambientais da medida, descreve suas dificuldades e perspectivas futuras. O trabalho propõe, também, uma nova metodologia de aplicação de tecnologia de Produção Mais Limpa, visando a uma maior simplicidade e praticidade, na intenção de socializar o conhecimento adquirido.
Resumo:
Tolerância a falhas é um dos aspectos mais importantes a serem considerados no desenvolvimento de aplicações, especialmente com a participação cada vez maior de sistemas computacionais em áreas vitais da atividade humana. Dentro deste cenário, um dos fatores a serem considerados na persecução deste objetivo é o gerenciamento de atomicidade. Esta propriedade, por sua vez, apresenta duas vertentes principais: o controle de concorrência e a recuperação de estados. Considerando-se a tolerância a falhas e, particularmente, a atomicidade como requisitos com alto grau de recorrência em aplicações, verifica-se a importância de sua reutilização de forma simples e transparente e do estudo de meios de prover tal capacidade. O presente trabalho procurou pesquisar e aplicar meios de produzir soluções reutilizáveis para implementação de programas tolerantes a falhas, mais especificamente de técnicas de controle de atomicidade, utilizando vários paradigmas computacionais. Neste intuito, foram pesquisados mecanismos de introdução de atomicidade em aplicações e suas respectivas demandas, para então extrair critérios de análise dos paradigmas a serem utilizados na implementações das soluções. Buscou-se suporte nestes paradigmas às demandas previamente pesquisadas nos mecanismos de gerenciamento de atomicidade e procurou-se chegar a soluções reutilizáveis mantendo simplicidade de uso, possibilidade de alteração dinâmica, transparência, adaptabilidade e velocidade de desenvolvimento. Devido à existência de uma grande diversidade de situações que requerem diferentes implementações de atomicidade, alguns cenários típicos foram selecionados para aplicação e avaliação das técnicas aqui sugeridas, procurando abranger o maior número possível de possibilidades. Desta maneira, este trabalho comparou situações opostas quanto à concorrência pelos dados, implementando cenários onde ocorrem tanto acesso cooperativo quanto competitivo aos dados. Dentro de cada um dos cenários estudados, buscaram-se situações propícias ao emprego das características dos paradigmas e analisou-se o resultado de sua aplicação quanto aos critérios definidos anteriormente. Várias soluções foram analisadas e comparadas. Além dos mecanismos de gerenciamento de atomicidade, também foram estudados vários paradigmas que pudessem ser empregados na implementação de soluções com alto grau de reutilização e adaptabilidade. As análises e sugestões posteriores às implementações serviram como substrato para conclusões e sugestões sobre a melhor maneira de empregar tais soluções nos cenários atômicos estudados. Com isso, foi possível relacionar características e capacidades de cada paradigma com a melhor situação de demanda de atomicidade na qual os mesmos são aplicáveis, moldando uma linha de soluções que favoreçam sua reutilização. Um dos objetivos mais importantes do trabalho foi, entretanto, observar o funcionamento conjunto destes paradigmas, estudando como os mesmos podem atuar de forma simbiótica e de que forma os conceitos de um paradigma podem complementar os de outro.
Resumo:
O presente trabalho insere-se no contexto das pesquisas realizadas no Laboratório de Computação & Música do Instituto de Informática da UFRGS. Com ele pretendemos fundamentar e investigar possibilidades em educação musical através da World Wide Web (WWW ou, simplesmente, Web). Para isso, em um primeiro momento, investigamos como desenvolver adequadamente sistemas educativo-musicais para a Web. Queremos aproveitar uma das principais vantagens que a Web oferece para a educação: a de facilitar a disponibilização e o acesso ao conteúdo educativo. Especificamente nesta área do conhecimento - Música -, é rara a pesquisa visando utilizar a Web como suporte. A Internet continua impondo sérias limitações ao emprego de multimídia e ainda mais quando seus dados representam informações sonoras e musicais. Devido a isso, os poucos estudos existentes optam ou por uma simplificação exagerada do sistema ou por soluções proprietárias muito complicadas, que podem reduzir a facilidade de acesso do público-alvo. Assim, no presente trabalho procuramos encontrar um meio-termo: uma solução de compromisso entre a funcionalidade que se espera de tais sistemas, a sua operacionalidade e a simplicidade que a Internet ainda impõe. Para atingir esse objetivo, nos concentramos em promover a interatividade entre o aluno e um ambiente de aprendizado distribuído para o domínio musical. Buscamos fundamentar essa interatividade a partir de: a) conceitos pertinentes a uma interação de boa qualidade para propósitos de ensino/aprendizagem; e b) adoção de tecnologias da Web para música que permitam a implementação adequada desses conceitos. Portanto este trabalho é eminentemente interdisciplinar, envolvendo principalmente estudos das áreas de Interação Humano-Computador, Educação Musical e Multimídia. Após essa fase inicial de fundamentação, investigamos uma solução possível para esse problema na forma de um protótipo de um sistema educativo-musical na Web, tendo em vista os seguintes requisitos: · Ser fácil de programar, mas suficiente para satisfazer os requisitos de sistemas musicais. · Ser acessível, útil e usável pelos seus usuários (notadamente alunos e educadores musicais). Esse protótipo - INTERVALOS, que visa auxiliar o ensino/aprendizagem da teoria de intervalos, arpejos e escalas musicais - é uma ferramenta que pode ser integrada a um ambiente mais completo de educação musical na Web, incluindo as demais tecnologias da Internet necessárias para implementar Ensino a Distancia de música nesse meio. INTERVALOS foi submetido a avaliações de usabilidade e avaliações pedagógicas, por meio das quais pretendemos validar o grau de adequação da fundamentação teórica (conceitos) e tecnológica (tecnologias) para educação musical baseada na Web.
Resumo:
Este trabalho apresenta um modelo genérico para o desenvolvimento de sistemas de gestão empresarial. O modelo foi criado com base na experiência profissional do autor do trabalho e revisão bibliográfica sobre a utilização de padrões de análise. O modelo proposto prioriza aspectos de simplicidade e flexibilidade no desenvolvimento de sistemas de informação. Sua utilização visa facilitar a reutilização de componentes, diminuir o tempo para o desenvolvimento de aplicativos e propiciar a criação de sistemas flexíveis que rapidamente possam se adaptar a novas necessidades dos processos de negócios. Os modelos estão descritos no corpo do trabalho e estendem a utilização dos padrões originais de onde os mesmos se originam, descrevendo os relacionamentos entre os modelos apresentados, suas classes e atributos. Exemplos da utilização prática dos modelos são apresentados em situações de negócios e conclusões sobre o potencial de utilização dos mesmos são discutidos ao final do trabalho.
Resumo:
Este estudo diz respeito ao acento do latim e do português arcaico. Interpretado o acento à luz da Fonologia Métrica, admitimos, seguindo Jacobs (1990, 1997), que o troqueu irregular caracteriza melhor o latim clássico do que o troqueu mórico. Depois de discutir o acento do latim clássico e dar especial atenção às enclíticas, que ampliam o domínio do acento e sobre as quais, com respeito a seu papel no acento, defendemos uma posição contrária à de análises mais recentes, citadas neste trabalho, passamos ao acento em latim vulgar e, após, ao acento em português arcaico. Nessa trajetória, observa-se a perda das proparoxítonas por síncope em latim vulgar e, subseqüentemente, a perda da vogal final por apócope em algumas palavras em português arcaico, resultando palavras terminadas em sílaba pesada. A simplicidade conduz a evolução do latim clássico ao vulgar, passando o sistema acentual do troqueu irregular ao troqueu silábico, mas, do latim vulgar ao português arcaico, há uma volta ao troqueu irregular, em virtude da ocorrência de palavras terminadas em sílaba pesada. Essas últimas linhas encerram a tese que esta análise sustenta.
Resumo:
Edifícios altos e estruturas são propensos a experimentar efeitos dinâmicos induzidos pelo vento, ação sísmica, e outras fontes de vibração. Pontes, estádios e outras estruturas sujeitas à ação de cargas móveis ou sísmicas, também podem apresentar resposta dinâmica que comprometa a confiabilidade das mesmas ou cause desconforto aos seus usuários. Amortecedores passivos são uma alternativa econômica, eficaz e rápida para reduzir ou eliminar tais vibrações. Dentro dos vários tipos de amortecedores passivos propostos ou já em uso, destacam-se aqueles que funcionam por atrito entre dois corpos sólidos, devido à sua simplicidade, grande poder de dissipação e baixo custo. Na presente dissertação, é apresentado um estudo teórico e experimental sobre amortecedores de vibração por atrito. São discutidos aspectos importantes da física do atrito bem como métodos que facilitam o cálculo de sistemas que envolvem atrito. Também foram projetados e ensaiados modelos diferentes de amortecedores de vibração por atrito. O conceito é aplicado em um edifício metálico com seis pavimentos submetido à excitação sísmica. Com a elaboração de programas computacionais, é verificado que a resposta máxima da estrutura é consideravelmente reduzida após a instalação dos dissipadores.
Resumo:
A classificação é uma das tarefas da Mineração de Dados. Esta consiste na aplicação de algoritmos específicos para produzir uma enumeração particular de padrões. Já a classificação é o processo de gerar uma descrição, ou um modelo, para cada classe a partir de um conjunto de exemplos dados. Os métodos adequados e mais utilizados para induzir estes modelos, ou classificadores, são as árvores de decisão e as regras de classificação. As regras e árvores de decisão são populares, principalmente, por sua simplicidade, flexibilidade e interpretabilidade. Entretanto, como a maioria dos algoritmos de indução particionam recursivamente os dados, o processamento pode tornar-se demorado, e a árvore construída pode ser muito grande e complexa, propensa ao overfitting dos dados, que ocorre quando o modelo aprende detalhadamente ao invés de generalizar. Os conjuntos de dados reais para aplicação em Mineração de Dados são, atualmente, muito grandes, e envolvem vários milhares de registros, sendo necessária, também, uma forma de generalizar estes dados. Este trabalho apresenta um novo modelo de indução de classificadores, em que o principal diferencial do algoritmo proposto é a única passada pelo conjunto de treinamento durante o processo de indução, bem como a sua inspiração proveniente de um Sistema Multiagente. Foi desenvolvido um protótipo, o Midas, que foi validado e avaliado com dados de repositórios. O protótipo também foi aplicado em bases de dados reais, com o objetivo de generalizar as mesmas. Inicialmente, foi estudado e revisado o tema de Descoberta de Conhecimento em Bases de Dados, com ênfase nas técnicas e métodos de Mineração de Dados. Neste trabalho, também são apresentadas, com detalhes, as árvores e regras de decisão, com suas técnicas e algoritmos mais conhecidos. Finalizando, o algoritmo proposto e o protótipo desenvolvido são apresentados, bem como os resultados provenientes da validação e aplicação do mesmo.
Resumo:
A separação/remoção de óleos emulsificados em água foi estudada, utilizando um novo processo baseado nas técnicas de floculação pneumática em linha, seguida de separação por flotação (denominado de processo de Floculação-Flotação ou processo FF). A primeira etapa do estudo foi o projeto, construção e montagem de um sistema piloto de geração de emulsões, floculação pneumática em linha e de separação por flotação, instalado no Laboratório de Águas Oleosas, na Refinaria Alberto Pasqualini (REFAP S.A.), Canoas-RS. Após esta etapa, foram realizados estudos utilizando água oleosa sintética, visando caracterizar e otimizar os principais parâmetros da floculação pneumática, fase determinante no processo FF. Os resultados mostraram que a melhor eficiência, 93 %, foi obtida quando da utilização de um floculador tipo serpentina de 20 elementos de mistura (MS-20), uma concentração de 2 mg/L de floculante (PVA) e uma vazão de ar de 40 L/min. Esta eficiência correspondeu a uma concentração residual de óleo na água tratada de 10 mg/L. Foi demonstrado ainda que, independentemente do tipo de floculador e da vazão de água oleosa, a remoção de óleo é determinada pela perda de carga resultante da injeção de ar antes do floculador. No estudo do tratamento do efluente oleoso proveniente da saída do separador PPI (REFAP S.A.), os melhores resultados foram obtidos utilizando-se o Mafloc-489 (floculante catiônico de alto peso molecular), em uma concentração de 6 mg/L, proporcionando uma concentração residual de óleo no efluente tratado de 8 mg/L (91 % de remoção) O processo de Floculação-Flotação estudado, demonstrou ser também eficiente na remoção de outros poluentes do efluente, além do óleo. Nas melhores condições operacionais, foram removidos 87 % da turbidez, 90 % dos sólidos suspensos, 91 % do óleo e 56 % da demanda química de oxigênio (DQO), proporcionando, em apenas uma etapa de tratamento, um efluente tratado com níveis de poluentes analisados abaixo do padrão exigido pelo órgão ambiental Estadual (FEPAM). Os principais mecanismos envolvidos no processo FF estão relacionados com a irreversibilidade na adsorção do polímero sob turbulência e a conformação deste na interface óleo/água/ar. O alto grau de cisalhamento, resultado dos fluxos volumétricos de ar e água, e a maior “insolubilidade” (precipitação) do polímero na interface ar/água, facilitam a geração de grandes flocos aerados de estrutura fibrosa. Esses resultados e outros obtidos com diferentes efluentes reais e suspensões sólidas mostraram que o processo FF possui um elevado potencial como nova operação unitária de separação líquido1/líquido2, sólido/líquido ou sólido/líquido1/líquido2. As principais vantagens do FF são os baixos custos envolvidos (investimento e operacional), a simplicidade dos elementos construtivos (compactos), a confiabilidade nos resultados e sua elevada capacidade de tratamento (> 60 m3/m2/h).
Resumo:
Neste trabalho, apresenta-se um programa de computador criado para automatizar os procedimentos para a verificação à fadiga de seções de concreto armado, submetidas a solicitações normais, conforme as recomendações do Projeto de revisão da NBR 6118/2001 (Texto conclusivo). o programa calcula as tensões e as variações de tensões, necessárias para as verificações, no regime elástico (estádio 11),qualquer que seja a solicitação (reta ou desviada) e qualquer que seja a seção transversal da barra (suposta poligonal). Este programa tem grande utilidade prática na verificação de lajes, vigas e pilares de concreto armado. Devido à sua simplicidade e à quantidade de conhecimentos básicos, de cálculo diferencial e integral, cálculo numérico, geometria das massas, resistência dos materiais e concreto armado, envolvidos no seu desenvolvimento, pode ser usado também para fins didáticos.