7 resultados para Método de avaliação de interface
em Biblioteca de Teses e Dissertações da USP
Resumo:
A amônia não ionizada pode ser interferente nos testes de toxicidade com a água intersticial de sedimentos marinhos e estuarinos. Com o objetivo de se encontrar em uma alternativa que minimizasse o efeito da amônia avaliou-se, em paralelo à água intersticial, o método que utiliza a interface sedimento/água. Foram analisadas 25 amostras de sedimento através do teste de toxicidade crônica de curta duração com Lytechinus variegatus. Foi observada correlação significativa entre os efeitos tóxicos para os diversos estágios embrio-larvais e a concentração de amônia não ionizada para os dois métodos avaliados. Quando comparadas com a interface sedimento/água, foram observadas concentrações superiores de amônia não ionizada em todas as amostras de água intersticial, que isoladamente, poderiam causar os efeitos tóxicos observados. Conclui-se que o teste de toxicidade na interface sedimento/água é o método mais adequado para avaliação de sedimentos marinhos e estuarinos, pois possibilitou a utilização de um maior número de resultados de testes de toxicidade do que aquele com água intersticial, uma vez que minimizou a influência da amônia. Foi evidenciada correlação significativa entre os resultados das concentrações de HPAs determinadas nas amostras de sedimento bruto e a toxidade observada nos diversos estágios embrio-larvais, pelo método da água intersticial. Para os metais, obteve-se correlação significativa com os efeitos tóxicos nos referidos estágios determinados na interface sedimento/água. Não foi evidenciada correlação entre a granulometria e o efeito tóxico nas amostras. O registro dos efeitos nos diferentes estágios embrio-larvais mostrou-se bastante útil, pois além de oferecer informações a respeito da toxicidade da amostra (ausência ou presença) possibilitou a hierarquização, em termos da intensidade de efeito adverso, daquelas amostras tóxicas.
Resumo:
Introdução: Em 2008, o baixo nível de atividade física (< 30 min de atividade moderada/vigorosa por dia) foi responsável por 9 por cento da ocorrência de óbito no mundo. Além disso, está associado ao comprometimento de mobilidade em idosos com 80 anos e mais. No entanto, devido a dificuldades metodológicas, poucos são os estudos populacionais que realizaram a associação entre baixo nível de atividade física e comprometimento de mobilidade e risco para óbito, utilizando método objetivo para avaliação da atividade física, e ainda não se tem conhecimento de pesquisas que verificaram essa associação na América Latina. Objetivo: Identificar a prevalência do baixo nível de atividade física e sua associação com o comprometimento da mobilidade e risco para óbito em idosos com 65 anos e mais residentes no município de São Paulo em 2010. Métodos: Estudo exploratório e quantitativo de base populacional, que utilizou a base de dados do Estudo SABE de 2010 e ocorrência de óbito em 2014. Foram avaliados 599 indivíduos em 2010. O nível de atividade física foi analisado de duas maneiras: 1) baixo nível de atividade física (< 30 minutos de atividade moderada e/ou vigorosa por dia) e alto nível de atividade física (> 30 minutos de atividade moderada e/ou vigorosa por dia); e 2) a amostra foi distribuída em tercis, de acordo com as contagens por minuto, e agrupada em dois grupos, sendo os idosos do mais baixo tercil classificados com baixo nível de atividade física e os idosos dos dois outros tercis como intermediário/alto nível de atividade física. A regressão logística hierárquica foi utilizada para: 1) identificar as variáveis associadas ao baixo nível de atividade física; 2) analisar a associação do baixo nível de atividade física no comprometimento da mobilidade; e 3) estimar o risco para óbito em idosos com baixo nível de atividade física. A curva de sobrevida foi analisada com o método de Kaplan-Meier utilizando o teste de log-rank e o risco proporcional foi calculado pelo modelo de risco proporcional de Cox. Resultados: A prevalência de baixo nível de atividade física em idosos foi de 85,4 por cento e as variáveis associadas, após ajuste, foram sexo (feminino), grupo etário (>75 anos), multimorbidade (> 2 doenças crônicas), dor crônica (dor crônica nos últimos 3 meses) e índice de massa corporal (maior valor médio). O baixo nível de atividade física permaneceu significativamente associado ao comprometimento de mobilidade (OR= 3,49; IC95 por cento = 2,00 6,13) e ao risco para (RP= 2,79; IC95 por cento = 1,71 4,57), mesmo após ajuste das variáveis sóciodemográficas e clínicas. Conclusão: A prevalência do baixo nível de atividade física em pessoas idosas residentes no Município de São Paulo é superior aos encontrados na população brasileira, mas se aproxima de outras populações que utilizaram o mesmo método de avaliação da atividade física. O baixo nível de atividade física (< 30 min de atividades moderadas/vigorosas) foi associado com variáveis sociodemográficas (sexo feminino e grupo etário) e clínicas (multimorbidade, dor crônica e índice de massa corporal). O baixo nível de atividade física (menor tercil de contagens por minuto) foi associado ao comprometimento de mobilidade e risco para óbito em quatro anos. Dessa forma, o baixo nível de atividade física pode ser utilizado como uma forma adequada para identificar idosos com maiores chances de apresentar comprometimento da mobilidade e aumento do risco para óbito.
Resumo:
As primeiras agências reguladoras foram criadas a partir da segunda metade dos anos 1990, e a mais recente delas, em 2005. Com as agências surgiram também os atores privados regulados, os usuários e consumidores, e uma nova forma de interação entre os Poderes Executivo, Legislativo e Judiciário. Esses atores participam e dão forma ao processo de aprendizagem institucional das agências. Passado o período de criação e após quase duas décadas de existência, é necessária uma visão crítica sobre as agências. Propõe-se, então, um método de avaliação regulatória a partir de três variáveis que serão decompostas em diversas subvariáveis (quesitos a serem respondidos objetivamente). A primeira variável, institucionalização, mede as regras aplicáveis à própria agência: características dos mandatos dos dirigentes, autonomia decisória, autonomia financeira e de gestão de pessoal. A segunda, procedimentalização, ocupa-se do processo de tomada de decisão da agência e de sua transparência. Ambas as variáveis procuram medir as agências do ponto de vista formal, a partir de normas aplicáveis (leis, decretos, resoluções, portarias etc.), e pela prática regulatória, com base nos fatos ocorridos demonstrados por meio de documentos oficiais (decretos de nomeação, decisões, relatórios de atividade das próprias agências etc.). A última variável, judicialização, aponta as várias vezes em que a decisão administrativa muda de status e o nível de confirmação dessas decisões pelo Poder Judiciário. O modelo teórico de avaliação das agências ora apresentado é aplicado e testado em três setores que são submetidos à regulação econômica e contam com forte presença de atores sociais e empresa estatal federal. Assim, as agências analisadas foram: Agência Nacional de Energia Elétrica ANEEL, Agência Nacional de Telecomunicações ANATEL e Agência Nacional de Aviação Civil ANAC. Em termos gerais, não é possível garantir a existência de um isoformismo entre essas agências, nem mesmo entre agências criadas em momentos diferentes e por presidentes distintos. Também não foi possível demonstrar que a interferência política seja uma marca de um único governo. A ANATEL, a melhor avaliada das três agências, destaca-se pelo rigor de suas normas que seu processo decisório reflete. A ANEEL e a ANAC tiveram uma avaliação mediana já que apresentaram avaliação sofrível quanto ao processo, mas mostraram ter instituições (regras) um pouco melhores.
Resumo:
O paradigma das redes em chip (NoCs) surgiu a fim de permitir alto grau de integração entre vários núcleos de sistemas em chip (SoCs), cuja comunicação é tradicionalmente baseada em barramentos. As NoCs são definidas como uma estrutura de switches e canais ponto a ponto que interconectam núcleos de propriedades intelectuais (IPs) de um SoC, provendo uma plataforma de comunicação entre os mesmos. As redes em chip sem fio (WiNoCs) são uma abordagem evolucionária do conceito de rede em chip (NoC), a qual possibilita a adoção dos mecanismos de roteamento das NoCs com o uso de tecnologias sem fio, propondo a otimização dos fluxos de tráfego, a redução de conectores e a atuação em conjunto com as NoCs tradicionais, reduzindo a carga nos barramentos. O uso do roteamento dinâmico dentro das redes em chip sem fio permite o desligamento seletivo de partes do hardware, o que reduz a energia consumida. Contudo, a escolha de onde empregar um link sem fio em uma NoC é uma tarefa complexa, dado que os nós são pontes de tráfego os quais não podem ser desligados sem potencialmente quebrar uma rota preestabelecida. Além de fornecer uma visão sobre as arquiteturas de NoCs e do estado da arte do paradigma emergente de WiNoC, este trabalho também propõe um método de avaliação baseado no já consolidado simulador ns-2, cujo objetivo é testar cenários híbridos de NoC e WiNoC. A partir desta abordagem é possível avaliar diferentes parâmetros das WiNoCs associados a aspectos de roteamento, aplicação e número de nós envolvidos em redes hierárquicas. Por meio da análise de tais simulações também é possível investigar qual estratégia de roteamento é mais recomendada para um determinado cenário de utilização, o que é relevante ao se escolher a disposição espacial dos nós em uma NoC. Os experimentos realizados são o estudo da dinâmica de funcionamento dos protocolos ad hoc de roteamento sem fio em uma topologia hierárquica de WiNoC, seguido da análise de tamanho da rede e dos padrões de tráfego na WiNoC.
Resumo:
Muito se fala na crescente velocidade de inovações tecnológicas que se apresenta ao mundo e que vai se acelerando. Antes, gerações se passavam para termos uma evolução tecnológica. Hoje, uma mesma geração presencia vários saltos tecnológicos. Neste contexto de inovações frequentes, surge a preocupação sobre como formar um profissional responsável, ético e que consiga acompanhar e ser protagonista de tais mudanças. O trabalho desenvolvido nesta tese busca colaborar na discussão sobre a formação do engenheiro, com foco na engenharia elétrica e de computação, revisitando as definições de conceitos como educação em engenharia, aprendizagem ativa, inovação, Design Thinking e competências transversais, e definindo, como contribuição de pesquisa, os conceitos de tecno-pedagogia e ambientes tecno-pedagógicos, como pressuposto de convergência de estruturas tecnológicas, estratégias pedagógicas e métodos de avaliação em aprendizagem ativa para a inovação. Apresenta um método para identificar e quantificar o grau de ênfase das competências transversais para a inovação a partir da demanda de mercado para engenheiros eletricistas e da computação; e um método de observação, coleta e análise de dados sobre o desenvolvimento de competências transversais na participação em duas experiências de aula: na disciplina global ME310 da Universidade de Stanford; e na disciplina 030-3410 da Escola Politécnica da Universidade de São Paulo. Com isso, foi possível elaborar um método para auxiliar no planejamento de disciplinas e cursos com foco em inovação, identificando as competências transversais que devem ser incentivadas e relacionando tais competências com estratégias de ensino e aprendizagem e sugerindo a estrutura tecnológica e método de avaliação a serem adotados.
Resumo:
Este trabalho é referente ao desenvolvimento de um calibrador multiobjetivo automático do modelo SWMM (Storm Water Management Model), e avaliação de algumas fontes de incertezas presentes no processo de calibração, visando à representação satisfatória da transformação chuva-vazão. O código foi escrito em linguagem C, e aplica os conceitos do método de otimização multiobjetivo NSGAII (Non Dominated Sorting Genetic Algorithm) com elitismo controlado, além de utilizar o código fonte do modelo SWMM para a determinação das vazões simuladas. Paralelamente, também foi criada uma interface visual, para melhorar a facilidade de utilização do calibrador. Os testes do calibrador foram aplicados a três sistemas diferentes: um sistema hipotético disponibilizado no pacote de instalação do SWMM; um sistema real de pequenas dimensões, denominado La Terraza, localizado no município de Sierra Vista, Arizona (EUA); e um sistema de maiores dimensões, a bacia hidrográfica do Córrego do Gregório, localizada no município de São Carlos (SP). Os resultados indicam que o calibrador construído apresenta, em geral, eficiência satisfatória, porém é bastante dependente da qualidade dos dados observados em campo e dos parâmetros de entrada escolhidos pelo usuário. Foi demonstrada a importância da escolha dos eventos utilizados na calibração, do estabelecimento de limites adequados nos valores das variáveis de decisão, da escolha das funções objetivo e, principalmente, da qualidade e representatividade dos dados de monitoramento pluvio e fluviométrico. Conclui-se que estes testes desenvolvidos contribuem para o entendimento mais aprofundado dos processos envolvidos na modelagem e calibração, possibilitando avanços na confiabilidade dos resultados da modelagem.
Resumo:
O presente trabalho comprova que o atual instrumento EIA-RIMA - Estudo de Impacto Ambiental e seu respectivo Relatório de Impacto Ambiental, é insuficiente enquanto busca de sustentabilidade urbana no Litoral Norte do Estado de São Paulo, especificamente no município de São Sebastião. O método de analise dos EIA-RIMA sempre enfatizam os ganhos econômicos e atenuam os impactos negativos, apesar das fragilidades naturais, estruturais e restrições legais incidentes. A tese comprova que os instrumentos utilizados no âmbito do processo de licenciamento ambiental dos empreendimentos, como a ampliação do porto comercial de São Sebastião, estão pouco comprometidos com o real desenvolvimento sustentável da cidade e região. As especificidades geográficas, sobretudo as facilidades de interface do território terrestre com o marítimo, proporcionadas pelas características naturais do Canal de São Sebastião, sempre ofereceram condições privilegiadas para o abrigo de embarcações, característica decisiva na escolha do lugar como cidade portuária, vinculada aos mais importantes ciclos econômicos do país. Agora, em 2015, está prestes a entrar em um novo ciclo, principalmente com a ampliação do porto comercial, duplicação da rodovia dos Tamoios e da SP-055 e a exploração da camada pré-sal na Bacia de Santos. A região já apresenta todos os problemas de uma ocupação acelerada em um território ambientalmente frágil, localizado em estreita faixa litorânea, composta de um lado pela Serra do Mar e do outro pelo Oceano Atlântico. Se não houver um planejamento urbano e regional que considere as características e capacidade de suporte deste território, a zona costeira entrará em colapso. Saber dosar o uso de suas potencialidades sem esgotá-las será o desafio de nossa geração. Os Estudos de Impactos Ambientais precisam ser aperfeiçoados para que ações mitigadoras alcancem muito mais do que o mínimo, alinhadas a investimentos, tecnologias inovadoras, infraestruturas necessárias e obrigatórias que sejam pensadas de maneira conjunta e cumulativa nas diversas esferas do poder, com efetiva participação pública, caso contrário, o crescente interesse econômico e político tenderá à destruição irreversível do patrimônio histórico e natural deste território. O EIA está se transformando em um poderoso instrumento político de ordenamento territorial que acaba por definir critérios e parâmetros de uso e ocupação, desempenhando uma função que não lhe compete, além de aprofundar o desencontro entre uma vida urbana de qualidade e um ambiente equilibrado em nome do desenvolvimento econômico e a serviço dos interesses privados.