42 resultados para Inflação - Modelos econométricos
em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ
Resumo:
Esta dissertação tem o propósito principal de fornecer evidências empíricas acerca dos fatores que influenciam as decisões dos gestores quanto ao prazo de divulgação das demonstrações contábeis anuais das companhias não financeiras listadas na BM&FBOVESPA. O prazo de divulgação, chamado defasagem, foi medido como o intervalo em dias entre o encerramento do exercício social e a data da primeira apresentação das Demonstrações Financeiras Padronizadas (DFPs). O foco da pesquisa foi a influência, sobre a defasagem, dos seguintes fatores não observáveis: monitoramento, complexidade contábil, governança corporativa, relatório de auditoria e performance. Com base na literatura revisada, foram formuladas proxies destinadas a captar os efeitos desses fatores. Para a consecução dos objetivos, foram estimados modelos econométricos por meio dos métodos: (i) Mínimos Quadrados Ordinários (MQO) com dados em corte transversal; (ii) MQO com dados agrupados (OLS pooled); e (iii) painel de dados. Os testes foram aplicados sobre um painel balanceado de dados, ou seja, 644 observações de 322 companhias, referentes aos exercícios 2010 e 2011. Os resultados das estimações revelaram que tendem a divulgar mais rapidamente suas demonstrações companhias: (i) com maior número de acionistas; (ii) com maior nível de endividamento; (iii) que aderiram a um entre os níveis diferenciados de governança corporativa da BM&FBOVESPA; (iv) que possuem maiores proporções de diretores independentes na composição da diretoria (board); e (v) que foram auditadas por uma entre as firmas de auditoria do grupo Big-4. Por outro lado, constatou-se que tendem a atrasar suas divulgações companhias que: (i) estão sujeitas à consolidação de balanços; (ii) tiveram suas demonstrações contábeis ressalvadas pelos auditores independentes; (iii) e que registraram resultados negativos (prejuízos). Adicionalmente, foram formuladas proxies para captar os efeitos das surpresas contidas nos resultados, uma delas tendo como base o benchmark para as expectativas do mercado, qual seja, a previsão dos analistas, no entanto, não foram constatados impactos das surpresas sobre o prazo de divulgação. Também não foram verificadas influências, sobre o timing, oriundas da proporção de investidores institucionais, da formação de blocos de controle, da regulação estatal, do nível de rentabilidade, do porte e tampouco da negociação de valores mobiliários em mercados estrangeiros. Os achados desta pesquisa podem contribuir não apenas para a literatura dedicada a essa linha de pesquisa, como também para investidores, analistas de mercado e reguladores. As nuances observadas para os exercícios analisados, que marcaram a adoção integral do padrão contábil alinhado às normas IFRS e a recuperação da economia brasileira em relação aos impactos da crise financeira mundial, permitiram relevantes constatações. Além disso, a relevância deste estudo é ampliada pelo ineditismo presente na aplicação de proxies ainda não utilizadas em ambiente nacional para explicar os prazos de divulgação.
Resumo:
A teoria do capital humano preconiza que o conjunto de habilidades, conhecimento e aptidões contribuem para o aumento da produtividade, que por sua vez, aumenta a renda dos indivíduos, possibilitando uma melhora no nível de qualidade de vida e nas oportunidades profissionais e sociais. Uma forma de potencializar os investimentos realizados em desenvolvimento humano é o próprio investimento em desenvolvimento infantil. Devido ao reconhecimento da importância que a educação e saúde infantil têm para o crescimento econômico dos países, a literatura que trata desses temas já é bastante ampla. Com base nesse reconhecimento, buscamos avaliar o impacto que o desenvolvimento infantil tem na educação primária. Para tanto, foram utilizados modelos de fronteira estocástica com o auxílio do programa R, no qual as variáveis independentes representam o desenvolvimento infantil, as variáveis dependentes, a educação primária e as unidades tomadoras de decisão são os Estados brasileiros.
Resumo:
O caos determinístico é um dos aspectos mais interessantes no que diz respeito à teoria moderna dos sistemas dinâmicos, e está intrinsecamente associado a pequenas variações nas condições iniciais de um dado modelo. Neste trabalho, é feito um estudo acerca do comportamento caótico em dois casos específicos. Primeiramente, estudam-se modelos préinflacionários não-compactos de Friedmann-Robertson-Walker com campo escalar minimamente acoplado e, em seguida, modelos anisotrópicos de Bianchi IX. Em ambos os casos, o componente material é um fluido perfeito. Tais modelos possuem constante cosmológica e podem ser estudados através de uma descrição unificada, a partir de transformações de variáveis convenientes. Estes sistemas possuem estruturas similares no espaço de fases, denominadas centros-sela, que fazem com que as soluções estejam contidas em hipersuperfícies cuja topologia é cilíndrica. Estas estruturas dominam a relação entre colapso e escape para a inflação, que podem ser tratadas como bacias cuja fronteira pode ser fractal, e que podem ser associadas a uma estrutura denominada repulsor estranho. Utilizando o método de contagem de caixas, são calculadas as dimensões características das fronteiras nos modelos, o que envolve técnicas e algoritmos de computação numérica, e tal método permite estudar o escape caótico para a inflação.
Resumo:
Em modelos inflacionários não-isentrópicos, a contribuição para o espectro de potência é essencialmente proveniente das flutuações térmicas. Esta é a situação oposta a da inflação fria, onde as flutuações de origem quântica fornecem toda contribuição para o espectro. Pouca ou nenhuma importância tem sido dada ao regime intermediário, onde as flutuações quânticas e térmicas são comparáveis. Neste trabalho, tendo como bases a inflação não-isentrópica e a inflação estocástica de Starobinsky, propomos um quadro geral onde é possível tratar de maneira conjunta, explícita e transparente tanto a contribuição de origem quântica quanto a de origem térmica para o espectro de potência do inflaton.O espectro de potência geral obtido reproduz, nos limites apropriados, todos os resultados caracteríssticos tanto da inflação fria, quanto da inflação não-isentrópica. Com o objetivo de checar a consistência e a viabilidade do modelo, foram usados os típicos potenciais polinomiais característicos da inflação caótica. Apesar destes potenciais já estarem praticamente descartados pelas observações no contexto da inflação fria, surpreendentemente pudemos constatar que efeitos dissipativos e de temperatura são capazes de restaurar a compatibilidade dos mesmos com os parâmetros cosmológicos inferidos através dos dados do nono ano do WMAP. Através da inserção de tais efeitos na dinâmica de grandes escalas do inflaton, estendemos ainda alguns resultados relacionados ao cenário conhecido como inflação eterna.
Resumo:
O estudo dos diferentes fenômenos de separação tem sido cada vez mais importante para os diferentes ramos da indústria e ciência. Devido à grande capacidade computacional atual, é possível modelar e analisar os fenômenos cromatográficos a nível microscópico. Os modelos de rede vêm sendo cada vez mais utilizados, para representar processos de separação por cromatografia, pois através destes pode-se representar os aspectos topológicos e morfológicos dos diferentes materiais adsorventes disponíveis no mercado. Neste trabalho visamos o desenvolvimento de um modelo de rede tridimensional para representação de uma coluna cromatográfica, a nível microscópico, onde serão modelados os fenômenos de adsorção, dessorção e dispersão axial através de um método estocástico. Também foram utilizadas diferentes abordagens com relação ao impedimento estérico Os resultados obtidos foram comparados a resultados experimentais. Depois é utilizado um modelo de rede bidimensional para representar um sistema de adsorção do tipo batelada, mantendo-se a modelagem dos fenômenos de adsorção e dessorção, e comparados a sistemas reais posteriormente. Em ambos os sistemas modelados foram analisada as constantes de equilíbrio, parâmetro fundamental nos sistemas de adsorção, e por fim foram obtidas e analisadas isotermas de adsorção. Foi possível concluir que, para os modelos de rede, os fenômenos de adsorção e dessorção bastam para obter perfis de saída similares aos vistos experimentalmente, e que o fenômeno da dispersão axial influência menos que os fenômenos cinéticos em questão
Resumo:
Embora a cirurgia de avanço mandibular seja considerada um procedimento altamente estável, existem algumas preocupações clínicas em relação a mudanças nos côndilos e nos segmentos proximais, que podem levar a recidiva sagital e abertura de mordida. A avaliação dos resultados da cirurgia através de ferramentas de geração e superposição de modelos virtuais tridimensionais (3D) permite a identificação e quantificação dos deslocamentos e remodelação óssea que podem ajudar a explicar as interações entre os componentes dentários, esqueléticos e de tecido mole que estão relacionados a resposta ao tratamento. Este estudo observacional prospectivo avaliou, através de tomografia computadorizada de feixe cônico (CBCT), mudanças na posição/remodelação 3D dos ramos mandibulares, côndilos e mento. Assim, exames CBCT de 27 pacientes foram adquiridos antes da cirurgia (T1), imediatamente após a cirurgia(T2), e 1 ano após a cirurgia(T3). Uma técnica automática de superposição na base do crânio foi utilizada para permitir a avaliação das mudanças ocorridas nas regiões anatômicas de interesse (RAI). Os deslocamentos foram visualizados e quantificados em mapas coloridos 3D através da ferramenta de linha de contorno (ISOLINE). Pelo teste t pareado compararam-se as mudanças entre T1-T2 e T2-T3. O coeficiente de correlação de Pearson verificou se os deslocamentos ocorridos nas RAI foram correlacionados entre si e entre os tempos de avaliação. O nível de significância foi determinado em 0,05. O avanço mandibular médio foi de 6,813,2mm em T2 e 6,363,41mm em T3 (p=0,13). Entre T2 e T3, a posição do mento variou positivamente (≥2mm) em 5 pacientes negativamente em 7. 12% dos pacientes sofreram recidivas ≥4mm. Para todas as outras RAI avaliadas, apenas a porção inferior dos ramos (lado direito - 2,342,35mm e lado esquerdo 2,972,71mm) sofreram deslocamentos médios >2mm com a cirurgia. No acompanhamento em longo prazo, esse deslocamento lateral da porção inferior dos ramos foi mantido (lado direito - 2,102,15mm, p=0,26; e lado esquerdo -2,762,80, p=0,46), bem como todos os outros deslocamentos observados (p>0,05). As mudanças na posição do mento foram correlacionadas a adaptações pós-cirúrgicas nos bordos posteriores dos ramos (esquerdo r=-0,73 e direito r=-0,68) e côndilos (esquerdo r=-0,53 e direito r=-0,46). Os deslocamentos médios sofridos pelas estruturas do lado esquerdo foram suavemente maiores do que no direito. Correlações dos deslocamentos ocorridos entre T1-T2 e T2-T3 mostraram que: os deslocamentos dos côndilos esquerdos com a cirurgia foram negativamente correlacionados às adaptações pós-cirúrgicas destes (r=-0,51); e que o deslocamento da porção superior do ramo esquerdo com a cirurgia foi correlacionado à adaptação pós-cirúrgica ocorrida nos bordos posteriores (r=0,39) e côndilos do mesmo lado (r=0,39). Pode-se concluir que: (1) os deslocamentos causados pela cirurgia foram de modo geral estáveis no acompanhamento de 1 ano, mas identificou-se uma considerável variação individual; (2) as mudanças pós-cirúrgicas na posição do mento foram correlacionadas a adaptações sofridas pelos côndilos e bordos posteriores dos ramos; e que (3) deslocamentos suavemente maiores causados pela cirurgia nas estruturas do lado esquerdo levaram a maiores adaptações pós-cirúrgicas no segmento proximal deste lado.
Resumo:
Este trabalho tem por objetivo verificar se há diferença quanto ao nível de significância estatística no cálculo do retorno anormal realizado através de quatro modelos estatísticos utilizados em estudos de eventos, tendo como objeto de estudo empresas no mercado de ações no Brasil durante o período de março de 2003 até julho de 2010 na Bovespa. Considerando a importância do cálculo do retorno anormal nos estudos de eventos, bem como possíveis variações de resultados decorrentes da escolha do modelo de cálculo, este estudo utiliza um tema bastante conhecido, qual seja, o anúncio de recompra de ações feito pela própria companhia emissora dos títulos. A metodologia utilizada nesta pesquisa foi quantitativa, utilizando o estudo de corte transversal. Os resultados apontam que há diferença entre os níveis de significância encontrados. Ao analisar o gráfico dos modelos calculados no período da janela do evento, verificou-se que as empresas que recompraram ações a fizeram quando os papéis estavam com retorno anormal acumulado negativo e, após a recompra, os papéis tiveram retornos anormais acumulados positivos. Recalculou-se os dois modelos que utilizam o Ibovespa em sua fórmula de cálculo, através de um Ibovespa sem ponderação e conclui-se que os resultados apontam na direção de se evitar o uso de índices ponderados de mercado, preferindo a utilização de carteiras compostas apenas com uma ação para cada empresa componente da carteira de controle. Após este recálculo, verificou-se que o modelo que era menos próximo dos demais graficamente era o modelo de retorno ajustado ao mercado ponderado. Por fim, as evidências empíricas indicam que o mercado de capitais brasileiro ajusta tempestivamente os papéis das empresas que realizaram recompra de ações, em linha com o que prescreve a hipótese do mercado eficiente na sua forma semiforte.
Resumo:
Pseudomonas aeruginosa é um importante agente de pneumonia, particularmente em pacientes submetidos à ventilação mecânica, que pode evoluir para sepse, com elevadas taxas de letalidade. Na sepse, o processo inflamatório sistêmico exacerbado favorece o desequilíbrio entre as vias de coagulação e fibrinólise e a instalação de um estado pró-coagulante, com o aparecimento de trombose microvascular, coagulação intravascular disseminada e falência de múltiplos órgãos. Conhecendo a potente atividade pró-inflamatória da toxina ExoU produzida por P. aeruginosa, decorrente de sua atividade fosfolipásica A2, o objetivo desta tese foi investigar seu potencial de indução de alterações hemostáticas relacionadas à patogênese da sepse. Utilizando modelo de sepse em camundongos inoculados, por via intratraqueal, com suspensões de P. aeruginosa produtora de ExoU (PA103) ou de cepa com deleção do gene exoU, não produtora da toxina, foi mostrado que ExoU determinou maior gravidade da infecção, maior taxa de letalidade, leucopenia, trombocitose, hiperpermeabilidade vascular e transudação plasmática, evidenciadas, respectivamente, pela maior concentração de proteínas nos lavados broncoalveolares (LBAs) e acúmulo do corante Azul de Evans, previamente inoculado nos animais, por via endovenosa, no parênquima renal. ExoU favoreceu, também, a ativação plaquetária, confirmada pela maior concentração de plaquetas expressando P-selectina em sua superfície, maior número de micropartículas derivadas de plaquetas e maior concentração plasmática de tromboxano A2. A histopatologia dos pulmões e rins dos animais infectados com PA103 confirmou a formação de microtrombos, que não foram detectados nos animais controles ou infectados com a cepa mutante. Nos pulmões, a produção de ExoU determinou intensa resposta inflamatória com maior concentração de leucócitos totais e polimorfonucleados, interleucina-6 e fator de necrose tumoral-α nos LBAs. A análise imunohistoquímica mostrou intensa deposição de fibrina nos alvéolos e septos interalveolares. A atividade pró-coagulante dependente do fator tissular detectada nos LBAs dos camundongos infectados com PA103 foi independente da produção do inibidor da via de ativação do fator tissular (TFPI), mas associada ao aumento da produção do inibidor do ativador do plasminogênio-1 (PAI-1). Para investigar a participação do fator de ativação plaquetária (PAF) na liberação de PAI-1, foi pesquisada a atividade da enzima PAF-acetil-hidrolase (PAF-AH) nos LBAs dos camundongos. A atividade de PAF-AH apresentou-se significativamente elevada nos LBA dos camundongos infectados com PA103. O tratamento dos animais com um inibidor do PAF, antes da infecção, resultou na diminuição significativa das concentrações de PAI-1 e de leucócitos totais, bem como da atividade pró-coagulante dos LBAs. In vitro, ExoU induziu maior expressão do RNA mensageiro de PAI-1 e maior liberação da proteína PAI-1 nos sobrenadantes de células epiteliais respiratórias da linhagem A549. O tratamento das células A549 com um anticorpo anti-receptor de PAF, antes da infecção, reduziu significativamente a concentração de PAI-1 nos sobrenadantes de células infectadas com a cepa selvagem. Estes resultados demonstraram um novo mecanismo de virulência de P. aeruginosa através da atividade pró-trombótica de ExoU e a possibilidade de utilização da identificação de ExoU em isolados clínicos de pacientes graves como um marcador prognóstico para estes pacientes.
Resumo:
O estudo das formas de relevo através da geomorfometria ciência que quantifica as superfícies topográficas demanda que múltiplas escalas sejam consideradas simultaneamente. Esse fato soma-se à continuidade espacial inerente à topografia, a qual raramente apresenta limites naturais abruptos, para conceder um caráter vago às formas de relevo. Essa dupla vagueza, no entanto, é raramente abordada de forma explícita em trabalhos científicos que, usualmente, valem-se de limiares e definições subjetivas e arbitrárias para descreverem o relevo. Dentro desse contexto, o trabalho apresenta um método inovador de caracterização geomorfométrica multiescala de modelos digitais de terreno (MDTs). A abordagem proposta baseia-se no método de extração de feições morfométricas de Wood (1996), mas o modifica em um número de maneiras: (i) expandindo o número de classes identificadas; (ii) transformando-o em um sistema fuzzy, cujos conjuntos fuzzy são parametrizados automaticamente e; (iii) limitando localmente a escala máxima de análise de maneira não-supervisionada. Como resultado, obtém-se um mapa de feições fundamentais e um mapa de escalas fundamentais que, juntos, sintetizam a estrutura multiescala das superfícies. Além disso, são produzidos mapas de pertinências fuzzy e de índice de confusão para cada escala analisada, assim como versões multiescala dos mesmos. Para avaliar a transferibilidade e o caráter não-supervisionado do método, foram analisados cinco MDTs oriundos de bases de dados distintas, com diferentes resoluções e extensões espaciais, compreendendo regiões continentais, do fundo dos oceanos e do planeta Marte. Os resultados obtidos foram avaliados em relação à utilização de escalas e parametrizações fixas, atestando a capacidade do método de empreender caracterizações geomorfométricas mais completas do que abordagens convencionais. Duas aplicações foram ainda propostas: a parametrização geomorfométrica multiescala e o desenvolvimento de uma assinatura morfométrica multiescala, demonstrando claros caminhos para a continuidade da pesquisa. Como conclusão geral, não obstante a algumas limitações apontadas, considerou-se que o trabalho apresentado alcançou seu objetivo de prover a caracterização geomorfométrica multiescala de modelos digitais de terreno.
Resumo:
Nas últimas décadas, o problema de escalonamento da produção em oficina de máquinas, na literatura referido como JSSP (do inglês Job Shop Scheduling Problem), tem recebido grande destaque por parte de pesquisadores do mundo inteiro. Uma das razões que justificam tamanho interesse está em sua alta complexidade. O JSSP é um problema de análise combinatória classificado como NP-Difícil e, apesar de existir uma grande variedade de métodos e heurísticas que são capazes de resolvê-lo, ainda não existe hoje nenhum método ou heurística capaz de encontrar soluções ótimas para todos os problemas testes apresentados na literatura. A outra razão basea-se no fato de que esse problema encontra-se presente no diaa- dia das indústrias de transformação de vários segmento e, uma vez que a otimização do escalonamento pode gerar uma redução significativa no tempo de produção e, consequentemente, um melhor aproveitamento dos recursos de produção, ele pode gerar um forte impacto no lucro dessas indústrias, principalmente nos casos em que o setor de produção é responsável por grande parte dos seus custos totais. Entre as heurísticas que podem ser aplicadas à solução deste problema, o Busca Tabu e o Multidão de Partículas apresentam uma boa performance para a maioria dos problemas testes encontrados na literatura. Geralmente, a heurística Busca Tabu apresenta uma boa e rápida convergência para pontos ótimos ou subótimos, contudo esta convergência é frequentemente interrompida por processos cíclicos e a performance do método depende fortemente da solução inicial e do ajuste de seus parâmetros. A heurística Multidão de Partículas tende a convergir para pontos ótimos, ao custo de um grande esforço computacional, sendo que sua performance também apresenta uma grande sensibilidade ao ajuste de seus parâmetros. Como as diferentes heurísticas aplicadas ao problema apresentam pontos positivos e negativos, atualmente alguns pesquisadores começam a concentrar seus esforços na hibridização das heurísticas existentes no intuito de gerar novas heurísticas híbridas que reúnam as qualidades de suas heurísticas de base, buscando desta forma diminuir ou mesmo eliminar seus aspectos negativos. Neste trabalho, em um primeiro momento, são apresentados três modelos de hibridização baseados no esquema geral das Heurísticas de Busca Local, os quais são testados com as heurísticas Busca Tabu e Multidão de Partículas. Posteriormente é apresentada uma adaptação do método Colisão de Partículas, originalmente desenvolvido para problemas contínuos, onde o método Busca Tabu é utilizado como operador de exploração local e operadores de mutação são utilizados para perturbação da solução. Como resultado, este trabalho mostra que, no caso dos modelos híbridos, a natureza complementar e diferente dos métodos Busca Tabu e Multidão de Partículas, na forma como são aqui apresentados, da origem à algoritmos robustos capazes de gerar solução ótimas ou muito boas e muito menos sensíveis ao ajuste dos parâmetros de cada um dos métodos de origem. No caso do método Colisão de Partículas, o novo algorítimo é capaz de atenuar a sensibilidade ao ajuste dos parâmetros e de evitar os processos cíclicos do método Busca Tabu, produzindo assim melhores resultados.
Resumo:
Esta pesquisa tem por objetivo discutir os modelos de leitura subjacentes ao trabalho proposto em sites de ensino de Francês de Língua Estrangeira (FLE). Para compreender como se apresentam os modelos de leitura nesses contextos, consideramos como base teórica de partida a concepção sócio-interacional da língua. Para tal, contextualizamos a necessidade de uma constante reflexão acerca do processo de ensino/aprendizagem de FLE. Em seguida, apresentamos a motivação para desenvolver a pesquisa e apresentamos, resumidamente, o nosso percurso metodológico. Destacamos a revisão bibliográfica, apresentando os modelos de leitura e as estratégias que envolvem essa atividade em meio virtual. O primeiro momento de nossa pesquisa foi de cunho exploratório porque não tínhamos conhecimento do universo de sites voltados para o ensino de FLE. A pesquisa é, também, de natureza documental uma vez que trabalhamos com sites tomados como documentos. Optamos pelo caráter descritivo pois, a partir da descrição, baseada nos critérios de análise, do material retirado dos sites que fazem parte do nosso corpus, é que respondemos e confirmamos nossas hipóteses. Nosso método de análise é o qualitativo porque buscamos interpretar, a partir de nossas observações dos documentos selecionados em um primeiro momento. Após estabelecer os critérios, partimos para a discussão e análise dos dados e, em seguida, fazemos algumas orientações aos professores que quiserem utilizar o material disponibilizado pelos sites analisados. No capítulo final, fazemos considerações sobre a pesquisa, apresentamos os resultados das análises, explicitamos a importância do trabalho para a construção do conhecimento acerca da leitura em meio virtual, e, finalmente, recomendamos novos estudos, diante do que encontramos, para que o ensino da leitura em Língua Estrangeira contribua para a formação de leitores autônomos
Resumo:
Se a escrita pessoal precisa sobreviver como habilidade individual perante as novas técnicas de produção textual, parece-nos necessária uma análise da escrita manual sob uma nova perspectiva. Num universo regido pelas mídias tecnológicas, no qual o computador pode ser visto como uma verdadeira extensão do homem, qual o lugar da escrita manual na atualidade? E, ainda: acreditando que o design pode auxiliar o educador, de que forma o mesmo pode interferir na aquisição da escrita manual e na formação de uma escrita legível e funcional? O presente projeto de pesquisa procura lançar luzes sobre este tema a partir de uma síntese dos principais modelos de escrita adotados na educação fundamental no Brasil durante o século XX. Para tanto, vamos elencá-los e analisá-los buscando relações e pontos comuns entre esses modelos e apontando para uma reflexão futura, calcada no campo do design e, em especial, da tipografia, tendo a aquisição da escrita como pano de fundo.
Resumo:
Este trabalho apresenta uma proposta que oferece ao arquiteto uma metodologia e um conjunto de ferramentas que auxiliará na representação gráfica de projetos de acessibilidade. O elemento base da proposta constitui-se em uma biblioteca de modelos 3D onde os equipamentos de acessibilidade, necessários em um projeto, estão modelados de acordo com a norma NBR9050. Para organizar o conhecimento da norma e guiar o arquiteto no uso da metodologia, a abordagem inclui uma taxonomia dos equipamentos de acessibilidade, utilizada para induzir o uso correto dos mesmos na modelagem 3D e para a construção de um Help integrado às ferramentas providas, auxiliando o arquiteto em suas tomadas de decisão, indicando quais são as melhores soluções propostas pela NBR9050. Para validar a proposta, um protótipo foi desenvolvido e, com este suporte, foi realizada uma avaliação com estudantes de arquitetura onde se verificou a necessidade de novas ferramentas para representação gráfica e de consulta à norma NBR9050 e a aceitação as ferramentas propostas nesta dissertação.
Resumo:
A colaboração de usuários em sites jornalísticos é um fenômeno crescente. Cada vez mais, a evolução tecnológica abre espaço para uma maior participação dos usuários no processo de construção da narrativa noticiosa. Nesse contexto, um olhar do design sobre os modelos colaborativos dos sites jornalísticos fornece subsídios para o entendimento deste fenômeno e para o aprofundamento em cada uma das etapas que compõe o processo colaborativo. Dessa forma, essa dissertação apresenta a análise teórica e prática dessas diferentes etapas, bem como das soluções de design aplicáveis aos modelos colaborativos, de maneira a estabelecer conceitos e diretrizes para a construção de modelos que otimizem o aproveitamento do conteúdo enviado por usuários e sua relação com o conteúdo editorial dos sites noticiosos.
Resumo:
Esta tese investiga os efeitos agudos da poluição atmosférica no pico de fluxo expiratório (PFE) de escolares com idades entre 6 e 15 anos, residentes em municípios da Amazônia Brasileira. O primeiro artigo avaliou os efeitos do material particulado fino (PM2,5) no PFE de 309 escolares do município de Alta Floresta, Mato Grosso (MT), durante a estação seca de 2006. Modelos de efeitos mistos foram estimados para toda a amostra e estratificados por turno escolar e presença de sintomas de asma. O segundo artigo expõe as estratégias utilizadas para a determinação da função de variância do erro aleatório dos modelos de efeitos mistos. O terceiro artigo analisa os dados do estudo de painel com 234 escolares, realizado na estação seca de 2008 em Tangará da Serra, MT. Avaliou-se os efeitos lineares e com defasagem distribuída (PDLM) do material particulado inalável (PM10), do PM2,5 e do Black Carbon (BC) no PFE de todos os escolares e estratificados por grupos de idade. Nos três artigos, os modelos de efeitos mistos foram ajustados por tendência temporal, temperatura, umidade e características individuais. Os modelos também consideraram o ajuste da autocorrelação residual e da função de variância do erro aleatório. Quanto às exposições, foram avaliados os efeitos das exposições de 5hs, 6hs, 12hs e 24hs, no dia corrente, com defasagens de 1 a 5 dias e das médias móveis de 2 e 3 dias. No que se refere aos resultados de Alta Floresta, os modelos para todas as crianças indicaram reduções no PFE variando de 0,26 l/min (IC95%: 0,49; 0,04) a 0,38 l/min (IC95%: 0,71; 0,04), para cada aumento de 10g/m3 no PM2,5. Não foram observados efeitos significativos da poluição no grupo das crianças asmáticas. A exposição de 24hs apresentou efeito significativo no grupo de alunos da tarde e no grupo dos não asmáticos. A exposição de 0hs a 5:30hs foi significativa tanto para os alunos da manhã quanto para a tarde. Em Tangará da Serra, os resultados mostraram reduções significativas do PFE para aumentos de 10 unidades do poluente, principalmente para as defasagens de 3, 4 e 5 dias. Para o PM10, as reduções variaram de 0,15 (IC95%: 0,29; 0,01) a 0,25 l/min (IC95%: 0,40 ; 0,10). Para o PM2,5, as reduções estiveram entre 0,46 l/min (IC95%: 0,86 to 0,06 ) e 0,54 l/min (IC95%: 0,95; 0,14). E no BC, a redução foi de aproximadamente 0,014 l/min. Em relação ao PDLM, efeitos mais importantes foram observados nos modelos baseados na exposição do dia corrente até 5 dias passados. O efeito global foi significativo apenas para o PM10, com redução do PFE de 0,31 l/min (IC95%: 0,56; 0,05). Esta abordagem também indicou efeitos defasados significativos para todos os poluentes. Por fim, o estudo apontou as crianças de 6 a 8 anos como grupo mais sensível aos efeitos da poluição. Os achados da tese sugerem que a poluição atmosférica decorrente da queima de biomassa está associada a redução do PFE de crianças e adolescentes com idades entre 6 e 15 anos, residentes na Amazônia Brasileira.