74 resultados para validação de limpeza
Resumo:
O tomate (Solanum lycopersicum L.) é considerado um alimento funcional por sua propriedade antioxidante. O fruto contém dos carotenoides, ácido L-ascórbico, vitamina E e substâncias fenólicas. Estudos indicam que o consumo do tomate pode retardar o envelhecimento e favorecer o funcionamento do sistema imunológico em humanos, embora não seja possível afirmar uma relação direta entre a prevenção ou cura de qualquer carcinoma com o consumo de produtos à base licopeno. Na década de 1990, a Empresa Brasileira de Pesquisa Agropecuária (EMBRAPA) criou o projeto TOMATEC, o tomate ecologicamente cultivado. A produção é baseada em um manejo diferenciado, que objetiva a otimização do uso do solo, menor consumo de pesticidas, herbicidas e incentivo à produção familiar dos agricultores. O estudo objetiva observar a influencia dos diferentes manejos: tradicional e TOMATEC na produção de (15E)-licopeno nos frutos do tomate, em diferentes cultivares do Brasil. Assim, foi utilizada a técnica de cromatografia líquida de alta eficiência acoplada a detector por arranjo de diodos (CLAE-DAD), em fase estacionária polimérica composta de 30 carbonos (C30). Esta fase estacionária é capaz de separar carotenoides, incluvise, isômeros geométricos do licopeno. As amostras foram coletadas, tratadas, extraídas e analisadas sob as mesmas condições para avaliação das concentrações de (15E)-licopeno nos frutos. Ensaios realizados foram capazes de demonstrar, de maneira objetiva, que a metodologia proposta conduziu a resultados confiáveis à qualidade desejada, de acordo com o guia de validação proposto pelo Instituto Nacional de Metrologia, Normalização e Qualidade Industrial (INMETRO). Foram utilizadas ferramentas estatísticas para comparar os teores de (15E)-licopeno, em diferentes Estados do Brasil, sob diferentes manejos. Os resultados indicam os maiores teores da substância em cultivares convencionais e mostram que o ensacamento do fruto é um fator decisivo para a biossíntese do (15E)-licopeno
Resumo:
Trata-se de estudo exploratório em que se busca compreender sentidos e significados presentes no olhar de consumidores sobre um filme e as embalagens que fazem parte da campanha publicitária de uma linha de biscoitos industrializados, lançada no ano de 2008. Trabalhando a partir dos referenciais da pesquisa qualitativa, foram realizados oito grupos focais, envolvendo 42 participantes, dentre os quais estudantes do Curso de Graduação em Nutrição e Comunicação Social, estudantes do Curso de Mestrado em Alimentação, Nutrição e Saúde, nutricionistas e trabalhadoras de empresa prestadora de serviços de limpeza. O tema alimentação saudável, fortemente presente em todos os grupos focais, foi tomado para discussão. O que se encontrou neste estudo foi uma combinação entre publicidade e biomedicina nutricional, que resulta num conjunto normativo de prescrições com foco em aumento de vendas que não dão conta do complexo que formam a alimentação, a saúde e a felicidade.
Resumo:
O carcinoma epidermóide de pênis (CEP) representa 95% das neoplasias penianas e afeta quase sempre pacientes não circuncidados estando muitas vezes associado à falta de higiene local adequada e à fimose. No Brasil a sua incidência é de 2,7 % porém em algumas áreas do país pode chegar a 17% dos casos diagnosticados por ano. O tumor pode ocorrer em qualquer parte do órgão sexual masculino e o tipo de estadiamento empregado é controverso. A classificação de Broders é a mais utilizada. Estudos sugerem a relação entre o desenvolvimento do carcinoma de pênis com a infecção por HPV (Papiloma Vírus Humano). O método de avaliação dos linfonodos inguinais permanece controverso sendo difícil a diferenciação entre linfadenomegalia inflamatória reacional e metastática. O exame físico não é um preditor confiável do comprometimento linfonodal pois pacientes com linfonodos palpáveis podem não apresentar metástases. Há poucas publicações sobre os mecanismos moleculares envolvidos na gênese e progressão do CEP. Apesar de vários marcadores terem sido avaliados, atualmente a aplicação clínica destes é limitada. A maior parte dos marcadores estudados requer procedimentos invasivos para obtenção do tecido tumoral. Existe a necessidade de encontrar através de uma técnica pouco invasiva marcadores tumorais circulantes capazes de diferenciar portadores de CEP com e sem envolvimento metastático. Neste tipo de neoplasia, a descoberta de biomarcadores que avaliem o prognóstico é relevante, pois o exame físico não é um indicador confiável do comprometimento linfonodal e da sobrevida.Os objetivos foram 1) revisar e discutir a epidemiologia, a etiologia, os diversos tipos de abordagem cirúrgica e as controvérsias no tratamento cirúrgico do câncer de pênis 2) investigar através da plataforma ClinProt/ MALDI / TOF a presença de marcadores plasmáticos capazes de discriminar indivíduos saudáveis de pacientes afetados por carcinoma epidermóide de pênis (CEP) 3) avaliar a importância destes marcadores na evolução da doença. Foram coletados e analisados pela plataforma ClinProt / MALDI / TOF o plasma de 36 indivíduos saudáveis e 25 pacientes com CEP invasivo, submetidos a tratamento cirúrgico entre junho de 2010 e junho de 2011, nos serviços de urologia do Instituto Nacional de Câncer e do Hospital Mário Kröeff (Rio de Janeiro). Nossos resultados apontaram para um conjunto de dois peptídeos (A = m / z 1897,22 + -9 Da e B = m / z 2021,99 + -9 Da) que foram capazes de diferenciar pacientes com CEP de indivíduos controles. Esses peptídeos foram posteriormente identificados como fragmentos C3 e C4 A/B do sistema complemento. A validação cruzada, utilizando toda casuística apresentou 62,5% e 86,76% de sensibilidade e de especificidade, respectivamente, com uma alta sensibilidade (100%) e especificidade (97%) nos pacientes que morreram pela doença. Além disso, os pacientes com envolvimento ganglionar obtiveram uma sensibilidade e uma especificidade de 80 % e 97%, respectivamente. Ficou demonstrado que à medida que a doença progride mais subexpressos está o conjunto de peptídeos quando comparados com indivíduos saudáveis. Estes resultados podem ser úteis como ferramentas para a avaliação do prognóstico destes pacientes.
Resumo:
Uma rede de trocadores de calor pode ser definida como um grupo de trocadores de calor interligados com o objetivo de reduzir a necessidade de energia de um sistema, sendo largamente usada nas indústrias de processos. Entretanto, uma rede está sujeita à deposição, a qual causa um decréscimo na efetividade térmica dos trocadores. Este fenômeno é provocado pelo acúmulo de materiais indesejáveis sobre a superfície de troca térmica. Para compensar a redução de efetividade térmica causada pela deposição, torna-se necessário um aumento no consumo de utilidades. Isto eleva os custos de operação, assim como os custos de manutenção. Estima-se que os custos associados à deposição atinjam bilhões de dólares anualmente. Em face a este problema, vários trabalhos de pesquisa têm investigado métodos para prevenir a deposição e/ou gerenciar as operações em uma rede. Estudos envolvem desde a otimização de trocadores de calor individuais, simulação e monitoramento de redes, até a otimização da programação das paradas para limpeza de trocadores de calor em uma rede. O presente trabalho apresenta a proposição de um modelo para simulação de redes de trocadores de calor com aplicações no gerenciamento da deposição. Como conseqüência, foi desenvolvido um conjunto de códigos computacionais integrados, envolvendo a simulação estacionária de redes, a simulação pseudo-estacionária do comportamento de redes em relação à evolução da deposição, a estimação de parâmetros para diagnóstico do problema da deposição e a otimização operacional deste tipo de sistema. Com relação ao simulador estacionário, o modelo da rede foi formulado matricialmente e os balanços de massa e energia são resolvidos como sistemas de equações lineares. Do ponto de vista da otimização, o procedimento proposto redistribui as vazões, visando um melhor aproveitamento térmico dos trocadores da rede, como, por exemplo, buscando as vazões da rede que maximizem a temperatura da corrente de entrada no forno em unidades de destilação atmosférica de óleo cru. Os algoritmos foram implementados em alguns exemplos da literatura e em um problema de uma refinaria real. Os resultados foram promissores, o que sugere que a proposta deste trabalho pode vir a ser uma abordagem interessante para operações envolvendo redes de trocadores de calor
Resumo:
Nesta tese é realizada a modelagem do comportamento hidráulico dos principais rios que compõem a bacia hidrográfica do Rio Bengalas, localizada no município de Nova Friburgo-RJ, a qual abrange a área mais urbanizada da referida cidade. Para a realização das simulações foi utilizado o Sistema de Modelagem de Águas MOHID, ferramenta MOHID Land. Já para a calibração do modelo foram adotados alguns métodos de otimização, mais precisamente, os algoritmos de Luus- Jaakola (LJ) e Colisão de Partículas (PCA), acoplados ao referido sistema, com o intuito de determinar os principais parâmetros necessários à modelagem de corpos hídricos, bem como suas bacias hidrográficas. Foram utilizados dados topográficos do IBGE disponibilizados pela prefeitura após a elaboração do Plano de Águas Pluviais da região de interesse. Com o modelo devidamente calibrado por meio de dados experimentais, foi realizada a validação do mesmo através da simulação de inundações nesta região. Apesar de técnicas de otimização acopladas à plataforma MOHID terem sido utilizadas pela primeira vez em um rio de montanha, os resultados apresentaram-se importantes e qualitativamente satisfatórios do ponto de vista de auxílio à tomada de decisões, tendo como base a prevenção de danos causados pelas elevações da lâmina dágua que ocorrem frequentemente em Nova Friburgo, como por exemplo, a recente tragédia de janeiro de 2011 ocorrida na Região Serrana do Estado do Rio de Janeiro.
Resumo:
O presente trabalho, plasmado em metodologia jurídica, reflete criticamente sobre o problema da motivação da sentença civil como elemento de organização e de funcionamento do Estado Constitucional Democrático de Direito. A motivação é condição essencial de jurisdicionalidade, no sentido de que sem motivação não há exercício legítimo da função jurisdicional. O trabalho faz uma abordagem da natureza da motivação como discurso justificativo, jurídico e racional, da validade dos critérios de escolha ou de valoração empregados pelo juiz em sua decisão. O raciocínio do juiz é apresentado sob dupla feição: raciocínio decisório interno (contexto de descoberta ou deliberação) e raciocínio justificativo externo (contexto de justificação ou de validação). O conjunto das funções técnico-instrumental (endoprocessual) e político-garantística (extraprocessual) é objeto de investigação. A motivação, nos planos teórico e prático, exerce também a função de garantia do garantismo processual. A tese da inexistência jurídica da sentença tem três eixos teóricos: omissão total da motivação gráfica; falta de motivação ideológica, equiparada à hipótese de ausência de motivação gráfica; incompatibilidade lógica radical entre as premissas ou entre as premissas e a conclusão final, que também equivale à ausência total de motivação. O trabalho retrata um modelo de injustiça atemporal vivificado pelo juiz Crono, oposto à motivação como inestimável fator de legitimação argumentativa da jurisdição. A obrigatoriedade de motivação pública é o traço característico da jurisdição de nossa contemporaneidade e representa a maior conquista civilizatória do processo équo e justo.
Resumo:
Esta dissertação tem como objetivo, a apresentação de uma proposta para os resíduos agroextrativistas a fim de encontrar um composto orgânico ideal para ser utilizado na agricultura do Município de Laranjal do Jari, no Estado do Amapá. A técnica em questão será a compostagem, gerando uma alternativa de utilização para os resíduos de natureza local, onde atualmente não vêm sendo aproveitados. Para se chegar ao composto ideal serão utilizados basicamente: caroços de açaí e cascas de castanha. Esses resíduos vêm sendo relegados através dos Serviços de Limpeza Pública, constituindo não só um problema estético ou ambiental, mas de desperdício de energia e materiais que poderiam ser utilizados na recuperação de áreas degradadas ou como composto orgânico, na fixação de nutrientes e água no solo a fim de melhorar as práticas agrícolas, reduzir custos e a importação de fertilizantes químicos. A metodologia envolve estudo bibliográfico sobre a técnica de compostagem, consistindo em desenvolver todas as etapas que se darão mais claras, no desenvolver dos trabalhos de campo, para uma futura implantação de uma Unidade de Compostagem, a ser aplicável para a agricultura do referido município.
Resumo:
A aplicabilidade de um método selecionado de medição indireta de vitelogenina (Vtg) em plasma sanguíneo de peixe, baseado na quantificação de fosfato álcali-lábil (alkali-labile phosphate-ALP) para acessar estrogenicidade em água, foi investigada na presente tese. O método foi originalmente desenvolvido para a espécie de peixe Carassius carassius (Carpa cruciana) e aplicado pela primeira vez na espécie Oreochromis niloticus (Tilápia do Nilo) no presente estudo. Com o objetivo de acessar a sensibilidade do método, em uma primeira etapa da investigação foram realizados estudos laboratoriais com soluções estoques de 17-ethinylestradiol (EE2), 17-estradiol (E2), e estrona (E1). Os efeitos destes hormônios foram investigados com base tanto na concentração quanto na carga, utilizando-se para tanto, unidades experimentais com volumes distintos (2 L e 130 L). Após a validação do método de ALP, a estrogenicidade foi avaliada nas seguintes águas contaminadas: (i) afluente e efluente de uma grande estação de tratamento de esgotos convencional (ETE) e de uma estação descentralizada de tratamento de esgoto de pequeno porte (Ecossistema Engenheirado-DEE); (ii) água superficial (SW) e água subterrânea (GW) coletadas em uma área de brejo contaminada com gasolina; (iii) água de uma lagoa urbana (LRF) da cidade do Rio de Janeiro, com alta densidade populacional e descarte clandestino de esgoto. Na segunda etapa foram analisados em microalgas os efeitos (outros que não disrupção endócrina) causados pelos hormônios EE2, E2 e E1. Os hormônios foram testados individualmente e em misturas, em culturas individuais e combinada (S+) das espécies de microalgas unicelulares P. subcapitata e D. subspicatus. Com base nos níveis de ALP para a espécie de peixe e no EC50 para as espécies de algas, os resultados mostraram que o EE2 e o E2 causaram disrupção endócrina superior e foram mais tóxicos do que o E1 para peixes e microalgas respectivamente. Quando em misturas (E+) de concentrações equivalentes (EE2:E2:E1), os estrogênios resultaram em efeito aditivo para as espécies O. niloticus e P. subcapitata, e menos que aditivo para D. subspicatus e cultivo misto de algas (S+). Culturas contendo ambas as espécies de algas (S+) por um longo período de exposição (96 h) resultaram na atenuação dos efeitos tóxicos causados pela exposição, tanto individual (EE2, E2 ou E1), quanto na mistura (E+) dos estrogênios, medidos em termos de EC50 (T0h 0,07; 0,09; 0,18; e 0,06 g mL-1; e T96h 1,29; 1,87; 5,58; e 4,61 g mL-1, respectivamente). O DEE apresentou uma maior eficiência na remoção dos disrutores endócrinos do que a ETE convencional. Foi detectada estrogenicidade em amostras da LRF, e de água SW e GW em área brejosa contaminada com gasolina. Os resultados dos ensaios sugerem que as interações (efeitos aditivos ou menos que aditivo) causadas pela mistura dos estrogênios assim como, as interações entre as espécies de algas afetaram o resultado final dos ensaios ecotoxicológicos. Um fator raramente abordado em estudos ecotoxicológicos que foi destacado na presente tese refere-se à importância de considerar não somente a concentração e a dosagem, mas também a carga aplicada e o volume das unidades experimentais. Devido à boa sensibilidade do O. niloticus quando exposto às concentrações relativamente baixas dos estrogênios, a combinação do método de ALP com os biomarcadores auxiliares (particularmente MN) pode ser um protocolo adequado para a detecção de estogenicidade e genotoxicidade respectivamente em diferentes ambiente aquáticos contaminados, como parte de um programa de monitoramento ambiental
Resumo:
A estabilidade de taludes naturais é um tema de grande interesse ao engenheiro geotécnico, face às significativas perdas econômicas, e até mesmo humanas, resultantes da ruptura de taludes. Estima-se que a deflagração de escorregamentos já provocou milhares de mortes, e dezenas de bilhões de dólares em prejuízos anuais em todo o mundo. Os fenômenos de instabilização de encostas são condicionados por muitos fatores, como o clima, a litologia e as estruturas das rochas, a morfologia, a ação antrópica e outros. A análise dos condicionantes geológicos e geotécnicos de escorregamentos proporciona a apreciação de cada um dos fatores envolvidos nos processos de instabilização de encostas, permitindo a obtenção de resultados de interesse, no que diz respeito ao modo de atuação destes fatores. O presente trabalho tem como objetivo a utilização da Lógica Nebulosa (Fuzzy) para criação de um Modelo que, de forma qualitativa, forneça uma previsão do risco de escorregamento de taludes em solos residuais. Para o cumprimento deste objetivo, foram estudados os fatores envolvidos nos processos de instabilização de encostas, e a forma como estes fatores se interrelacionam. Como experiência do especialista para a elaboração do modelo, foi analisado um extenso banco de dados de escorregamentos na cidade do Rio de Janeiro, disponibilizado pela Fundação Geo-Rio. Apresenta-se, neste trabalho, um caso histórico bem documentado para a validação do Modelo Fuzzy e análises paramétricas, realizadas com o objetivo verificar a coerência do modelo e a influência de cada um dos fatores adotados na previsão do risco de escorregamento. Dentre as principais conclusões, destaca-se a potencialidade da lógica nebulosa na previsão de risco de escorregamentos de taludes em solo residual, aparecendo como uma ferramenta capaz de auxiliar na detecção de áreas de risco.
Resumo:
Esta tese tem como ponto de partida a identificação, resgate e reconstrução de um programa de pesquisas delineado por Karl-Otto Apel perifericamente à fração intermediária de seu pensamento, ao qual se referirá como "fenomenologia positivamente orientada do ser-no-mundo". Oriundo de uma leitura fenomenológica que vincula o projeto do "segundo" L. Wittgenstein à analítica do ser-aí do "primeiro" M. Heidegger, o programa de Apel tem como eixo principal a retomada e aprimoramento do que ele denomina, conforme com o vocabulário de Heidegger, crítica à "ontologia da pré-manualidade" (Vorhandenheitsontologie). Da formulação por Apel da "crítica à ontologia da pré-manualidade", então aprofundada e recomposta como "crítica à pré-manualidade", conduzir-se-á à reivindicação e ao delineamento primário de uma agenda de pesquisas que, no propósito da confrontação de questões pertinentes à fundamentação e à validação científica da sociologia, desdobrar-se-á em três distintos planos de investigação: o problema do fundamento, o problema cientificamente relevante da verdade (empírica) e o problema da sociologia enquanto ciência empírica.
Resumo:
Desde 2004, o CONAMA (Conselho Nacional de Meio Ambiente), através de sua Resolução n 344, vem exigindo que as análises físicas, químicas e biológicas em matrizes ambientais sejam realizadas em laboratórios ambientais que possuam sua competência técnica reconhecida formalmente através da acreditação concedida pelo Inmetro. Assim, algumas Unidades Federativas vem adotando o mesmo critério para cadastramento de laboratórios em seus bancos de dados. Com isso, houve um crescimento no número de acreditações: em 2002 haviam 12 laboratórios acreditados e em 2012 foram concedidas 198 acreditações a laboratórios ambientais. A adoção da ABNT NBR ISO/IEC 17025 como padrão de trabalho, além de atender as legislações vigentes, possui as seguintes vantagens: satisfação do cliente, credibilidade e melhoria contínua do laboratório, melhoria da capacitação profissional e a conquista de um mercado mais amplo. Buscando adequar-se a essa realidade, apesar de todas as dificuldades inerentes ao processo de implementação dos requisitos da ABNT NBR ISO/IEC 17025 em laboratórios universitários e de pesquisa, o Laboratório de Engenharia Sanitária (LES/DESMA) priorizou a adequação da determinação da demanda química de oxigênio (DQO) aos requisitos técnicos da ABNT NBR ISO/IEC 17025:2005, por ser um parâmetro indicador global de matéria orgânica em águas residuárias e superficiais e ser amplamente utilizado no monitoramento de estações de tratamento de efluentes líquidos e pelo fato deste poder ser determinado por duas técnicas analíticas distintas: espectrofotometria e colorimetria. Em razão deste cenário, o objetivo deste trabalho foi avaliar o desempenho dos métodos 5220 B e 5220 D descritos pelo Standard Methods, através dos parâmetros de validação de métodos analíticos. Ambos os métodos mostraram-se adequados ao uso a que se destinam e o limite de quantificação determinado apresentou-se compatível com o praticado com os laboratórios acreditados. As incertezas foram calculadas de forma a quantificar a qualidade do resultado.
Resumo:
No presente trabalho foram analisadas a natureza jurídica das contribuições especiais, suas hipóteses de validação constitucional como seu critério de distinção perante as demais espécies tributárias, bem como a correta determinação do prazo decadencial a elas estabelecido pelo art 146 do Código Tributário Nacional (CTN), especialmente em face da inconstitucionalidade do art 45 da Lei n 8.212/91 declarada através da Súmula Vinculante n 08/2008. Também foram abordadas as correntes doutrinárias favoráveis e contrárias à possibilidade da restrição dos efeitos das decisões de inconstitucionalidade das normas tributárias, bem como realizada a crítica à modulação dos efeitos da SV n 08/2008, que culminou por limitar a repetição do indébito das contribuições irregularmente constituídas apenas àqueles contribuintes que haviam se insurgido contra seu pagamento, administrativa ou judicialmente, até a data de 11/06/2008.
Resumo:
O crescimento da população e dos núcleos urbanos durante o século XX, sobretudo nos países em desenvolvimento, contribuiu para o aumento das áreas impermeáveis das bacias hidrográficas, com impactos importantes nos sistemas de drenagem urbana e na ocorrência de enchentes associadas. As enchentes trazem prejuízos materiais, na saúde e sociais. Recentemente, têm sido propostas práticas conservacionistas e medidas compensatórias, que buscam contribuir para o controle das enchentes urbanas, através do retardo do pico e amortecimento dos hidrogramas. Modelos matemáticos hidrológicos-hidráulicos permitem a simulação da adoção destas medidas de controle, demonstrando e otimizando sua localização. Esta dissertação apresenta os resultados da aplicação do modelo hidrológico Storm Water Management Model (SWMM) à bacia hidrográfica de estudo e representativa do rio Morto localizada em área peri-urbana em Jacarepaguá na cidade do Rio de Janeiro, com área de 9,41 km. O processamento do modelo SWMM foi realizado com o apoio da interface Storm and Sanitary Analysis (SSA), integrada ao sistema AutoCAD Civil 3D. Além da verificação da adequabilidade do modelo à representação dos sistemas hidrológico e hidráulico na bacia, foram desenvolvidos estudos para dois cenários como medidas de controle de enchentes: cenário 1, envolvendo implantação de um reservatório de detenção e, cenário 2, considerando a implantação de reservatórios de águas pluviais nos lotes. Os hidrogramas resultantes foram comparados ao hidrograma resultante da simulação nas condições atuais. Além disso, foram avaliados os custos associados a cada um dos cenários usando o sistema de orçamento da Empresa Rio Águas da PCRJ. Nas simulações foram adotadas a base cartográfica, e os dados climatológicos e hidrológicos previamente observados no contexto do projeto HIDROCIDADES, Rede de Pesquisa BRUM/FINEP, na qual este estudo se insere. Foram representados os processos de geração e propagação do escoamento superficial e de base. Durante o processo de calibração, realizou-se a análise de sensibilidade dos parâmetros, resultando como parâmetros mais sensíveis os relativos às áreas impermeáveis, especialmente o percentual de área impermeável da bacia (Ai). A calibração foi realizada através do ajuste manual de sete parâmetros do escoamento superficial e cinco do escoamento de base para três eventos. Foram obtidos coeficientes de determinação entre 0,52 e 0,64, e a diferença entre os volumes escoados e observados entre 0,60% e 4,96%. Para a validação do modelo foi adotado um evento pluviométrico excepcional observado na cidade em abril de 2010, que à época causou enchentes e grandes transtornos na cidade. Neste caso, o coeficiente de determinação foi igual a 0,78 e a diferença entre volumes foi de 15%. As principais distorções entre hidrogramas observados e simulados foram verificados para as vazões máximas. Em ambos os cenários as enchentes foram controladas. A partir destes estudos, pôde-se concluir que o melhor custo-benefício foi o cenário 2. Para este cenário, foi observado maiores amortecimento e retardo da vazão de pico do hidrograma, igual a 21,51% da vazão simulada para as condições atuais da bacia. Os custos de implantação orçados para os reservatórios de lote ficaram 52% a menos do que o do reservatório de detenção.
Resumo:
A operação de coleta e transporte de resíduos sólidos urbanos é indispensável dentro de quaisquer sistema de limpeza urbana. É necessário que se intensifique a pesquisa nessa área de conhecimento afim de produzir-se material de auxílio ao poder público municipal e o setor privado. Deste modo o objetivo geral deste trabalho é o estudo da utilização de ferramentas computacionais para a otimização dos roteiros dos serviços de coleta de resíduos sólidos domiciliares. Foi feito um comparativo entre os itinerários percorridos pelos caminhões de coleta quando dimensionados de forma empírica e quando dimensionados com o auxílio de ferramentas computacionais. Verificou-se as vantagens e desvantagens de cada modelo de dimensionamento e o grande potencial de redução de custos quando utilizadas ferramentas computacionais.
Resumo:
Desde os primórdios da humanidade, a descoberta do método de processamento cerebral do som, e consequentemente da música, fazem parte do imaginário humano. Portanto, as pesquisas relacionadas a este processo constituem um dos mais vastos campos de estudos das áreas de ciências. Dentre as inúmeras tentativas para compreensão do processamento biológico do som, o ser humano inventou o processo automático de composição musical, com o intuito de aferir a possibilidade da realização de composições musicais de qualidade sem a imposição sentimental, ou seja, apenas com a utilização das definições e estruturas de música existentes. Este procedimento automático de composição musical, também denominado música aleatória ou música do acaso, tem sido vastamente explorado ao longo dos séculos, já tendo sido utilizado por alguns dos grandes nomes do cenário musical, como por exemplo, Mozart. Os avanços nas áreas de engenharia e computação permitiram a evolução dos métodos utilizados para composição de música aleatória, tornando a aplicação de autômatos celulares uma alternativa viável para determinação da sequência de execução de notas musicais e outros itens utilizados durante a composição deste tipo de música. Esta dissertação propõe uma arquitetura para geração de música harmonizada a partir de intervalos melódicos determinados por autômatos celulares, implementada em hardware reconfigurável do tipo FPGA. A arquitetura proposta possui quatro tipos de autômatos celulares, desenvolvidos através dos modelos de vizinhança unidimensional de Wolfram, vizinhança bidimensional de Neumann, vizinhança bidimensional Moore e vizinhança tridimensional de Neumann, que podem ser combinados de 16 formas diferentes para geração de melodias. Os resultados do processamento realizado pela arquitetura proposta são melodias no formato .mid, compostas através da utilização de dois autômatos celulares, um para escolha das notas e outro para escolha dos instrumentos a serem emulados, de acordo com o protocolo MIDI. Para tal esta arquitetura é formada por três unidades principais, a unidade divisor de frequência, que é responsável pelo sincronismo das tarefas executadas pela arquitetura, a unidade de conjunto de autômatos celulares, que é responsável pelo controle e habilitação dos autômatos celulares, e a unidade máquina MIDI, que é responsável por organizar os resultados de cada iteração corrente dos autômatos celulares e convertê-los conforme a estrutura do protocolo MIDI, gerando-se assim o produto musical. A arquitetura proposta é parametrizável, de modo que a configuração dos dados que influenciam no produto musical gerado, como por exemplo, a definição dos conjuntos de regras para os autômatos celulares habilitados, fica a cargo do usuário, não havendo então limites para as combinações possíveis a serem realizadas na arquitetura. Para validação da funcionalidade e aplicabilidade da arquitetura proposta, alguns dos resultados obtidos foram apresentados e detalhados através do uso de técnicas de obtenção de informação musical.