73 resultados para softwares estatísticos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A popularização da Internet e o crescimento da educação à distância tornaram possível a criação de softwares e cursos à distância, disponíveis na WWW. Atualmente, a Inteligência Artificial (IA) vem sendo utilizada para aumentar a capacidade de ambientes de educação à distância, diminuindo a desistência pela falta de estímulos externos e de interação entre colegas e professores. Este trabalho encontra-se inserido no ambiente colaborativo suportado por computador, definido no projeto “Uma Proposta de Modelo Computacional de Aprendizagem à Distância Baseada na Concepção Sócio-Interacionista de Vygotsky” chamado MACES (Multiagent Architecture for an Collaborative Educational System). Sua principal proposta, como parte do projeto do grupo, é desenvolver e implementar a interface animada do personagem para os agentes pedagógicos animados Colaborativo e Mediador que operam no ambiente de aprendizado colaborativo proposto pelo grupo. O personagem desenvolvido chama-se PAT (Pedagogical and Affective Tutor). A interface do personagem foi desenvolvida em Java, JavaScript e usa o Microsoft Agent para a movimentação. O Resin 2.1.6 (semelhante ao Tomcat que também foi usado de teste) é o compilador de servlet usado na execução de Java Servlet’s e tecnologias jsp – que monta páginas HTML dinamicamente. Esta montagem é feita no servidor e enviada para o browser do usuário. Para definir a aparência do personagem foram feitas entrevistas com pedagogas, psicólogas, psicopedagogas e idéias tiradas de entrevistas informais com profissionais que trabalham com desenho industrial, propaganda, cartoon e desenho animado. A PAT faz parte da interface do MACES e promove a comunicação entre esse ambiente e o usuário. Portanto, acredita-se que a PAT e os recursos da Inteligência artificial poderão aumentar a capacidade de ambientes de educação à distância, tornando-os mais agradáveis, assim como diminuir a desistência pela falta de estímulos externos e de interação com colegas e professores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Estatística é uma ferramenta indispensável em todos os campos científicos. A Estatística descritiva é usada para sintetizar dados. O principal problema desta área está relacionado aos valores de uma amostra, os quais geralmente possuem erros que ocorrem durante a obtenção dos dados. Um dos objetivos deste trabalho é apresentar uma forma de representação para os valores amostrais que considera os erros contidos nestes valores. Esta representação é realizada através de intervalos. A literatura mostra que foram realizadas pesquisas somente em problemas de calcular os valores intervalares das medidas de dispersão variância, covariância e coeficiente de correlação, que a utilização da computação intervalar na solução de problemas de medidas de dispersão intervalar sempre fornece solução com intervalos superestimados (intervalos com amplitude grande), e que ao procurar uma solução com intervalos de amplitude pequena (através da computação da imagem intervalar), o problema passa a pertencer a classe de problemas NP-Difícil. Com o objetivo principal de analisar a complexidade computacional dos problemas de computar os valores dos indicadores estatísticos descritivos com entradas intervalares, e realizar uma classificação quanto a classe de complexidade, a presente tese apresenta: i) definições intervalares de medidas de tendência central, medidas de dispersão e separatrizes; ii) investigação da complexidade de problemas das medidas de tendência central média, mediana e moda, das medidas de dispersão amplitude, variância, desvio padrão, coeficiente de variação, covariância, coeficiente de correlação e das separatrizes e iii) representação intervalar dos valores reais, de tal modo que garante a qualidade de aproximação nos intervalos solução calculado através da extensão intervalar Primeiramente, apresentamos uma abordagem intervalar para os indicadores estatísticos e propomos algoritmos para a solução dos problemas de computar os intervalos de medidas de tendência central intervalar, dispersão intervalar e separatrizes intervalares. Tais algoritmos utilizam a aritmética intervalar definida por Moore, a extensão intervalar e foram projetados para serem executados em ambientes intervalares como IntLab e Maple Intervalar. Por meio da análise da complexidade computacional verificamos que os problemas de medidas de tendência central, dispersão e separatrizes, com entradas intervalares, pertencem à classe de problemas P. Este trabalho apresenta, portanto, algoritmos de tempo polinomial que calculam os intervalos dos indicadores estatísticos com entradas intervalares, e que retornam como solução intervalos com qualidade de aproximação. Os resultados obtidos no desenvolvimento do trabalho tornaram viável a computação da Estatística Descritiva Intervalar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Estudo de natureza descritiva, analítica e interpretativa de elementos quantitativos e qualitativos, com finalidade de compreender o processo histórico-político da Educação e do Ensino Médio e de apresentar um quadro conjuntural de demanda e oferta da etapa final da Educação Básica no âmbito da 7ª Coordenadoria Regional de Educação do rio Grande do Sul, Brasil, com sede em Passo Fundo, a no período 1987-1999. A região geo-educacional abrange 32 municípios, sobre os quais foram compilados dados estatísticos relativos a escolaridade da população, matrículas, aprovação X reprovação e evasão escolar, por série do Ensino Médio, inclusive com análises comparativas e de cohortes. Adicionalmente, no Volume II, são apresentadas tabulações por unidade escolar, segundo o município. Como contextualização, resenha-se a história da educação escolar brasileira, concentrando a atenção no Ensino Médio, da época da colonização até a atualidade. A seguir, uma leitura do atual ordenamento constitucional e legal nacional, destacando os artigos 35 e 36 da Lei de Diretrizes e Bases da Educação Nacional, a Lei nº 9394/96, embasa a problematização central da dissertação, que é o direito à Educação Básica, que gera progressiva, mas ainda não plenamente atendida demanda de Ensino Médio. Além do exame dos dados estatísticos, trata-se da reforma do Ensino Médio proposta no país em 1998, cujas diretrizes redefinem objetivos e organização curricular (Resolução CEB/CNE 03/98). Sobre esta, sem pretender dar conta da amplitude e da profundidade da matéria, a autora posiciona-se com o olhar de quem está do lado de dentro da escola média, vivenciando o cotidiano nas unidades escolares, em parte compreendendo a necessidade de mudanças, porém conhecendo as limitações institucionais Na aproximação do objeto geo-educacional, faz-se a contextualização histórica da educação escolar no estado do Rio Grande do Sul, para chamar atenção aos condicionantes culturais e políticos que levam à atual configuração de direitos restritos à Educação, na ambigüidade de deveres do Estado federativo. Assim, situa-se que a expansão das oportunidades de escolarização, com a criação de novas escolas e do Ensino Médio, é processo político e burocrático complexo, em que não basta a óbvia evidência de população sem acesso progressivo aos níveis mais elevados de ensinos para que sejam tomadas as providências adequadas em termos de localização e infra-estrutura da escola ou de recursos humanos e pedagógicos de acordo com as normas vigentes. As solicitações da comunidade e os encaminhamentos aos órgãos competentes, na estrutura centralizada, encontram sucessivas negativas e atendimentos com autorizações sob condições precárias, como ilustram dados do período e região estudada. A análise principal, sobre os dados estatísticos dos municípios da região da 7ª CRE, subdivide as escolas de Ensino Médio segundo as responsabilidades de manutenção e administração: as escolas públicas, que são todas estaduais, à exceção de uma Escola Agrotécnica Federal (dados de 1987 a 2000); e as escolas privadas, de diversas mantenedoras. Para estimar a demanda à 1ª série do Ensino Médio são também considerados os concluintes do Ensino Fundamental; as matrículas do Ensino Médio são tabuladas por série e segundo alunos evadidos, aprovados, repetentes, novos e. Há uma síntese por município, referente a cada um dos indicadores mencionados O Capítulo V, oferece uma aproximação ainda mais detalhada à realidade, com dados de cada escola estadual e privada do município de Passo Fundo, o pólo da região. Nas considerações finais, relatam-se os principais resultados encontrados. Em síntese, no período e na região estudada, os dados indicam que a matrícula do Ensino Médio expandiu-se, a evasão diminuiu e o aproveitamento escolar parece melhorar; mas, paradoxalmente, o número de alunos concluintes do ensino Médio diminuiu. Por isso, cabe destacar à sociedade e às autoridades educacionais que, embora a evasão tenha cedido e o aproveitamento alcançado índices mais positivos, ainda há muita atenção a ser dispensada às escolas, no sentido de mudar o quadro de evasão e aproveitamento, bem como de incluir uma grande parcela da população, em todos os municípios da região que, ainda não tem acesso ao Ensino Médio de Passo Fundo-RS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho aborda o desenvolvimento de uma arquitetura de controle em tempo real para servoposicionadores pneumáticos, baseada em computadores pessoais (PCs). Os servoposicionadores pneumáticos são de baixo custo, leves, não poluentes e de fácil utilização. Como apresentam boa relação entre peso e força, são bastante atraentes em aplicações de robótica. Entretanto, devido a suas não linearidades, os servoposicionadores pneumáticos apresentam dificuldades em seu controle. Visando compensá-las, são desenvolvidos algoritmos de controle cada vez mais complexos, necessitando de ferramentas mais robustas quanto ao poder de processamento. Ferramentas com características necessárias para o desenvolvimento de algoritmos e para o controle em tempo real de sistemas custam caro, o que dificulta o desenvolvimento de novas tecnologias de controle de servoposicionadores pneumáticos. Este trabalho apresenta uma revisão das soluções utilizadas na construção de sistemas pneumáticos de posicionamento e daquelas adotadas no controle digital de sistemas automáticos. Descrevese o processo de construção de uma bancada experimental, e o desenvolvimento das soluções em hardware e software para o controle digital é discutido. Visando uma solução economicamente atraente, são utilizados unicamente softwares de código aberto e de livre utilização, assim como hardwares de baixo custo.Para verificar a eficiência da solução proposta, a arquitetura de controle é utilizada para realizar a identificação dos parâmetros do sistema pneumático. Dentre eles, destacam-se a vazão mássica e o atrito, informações importantes para simulação e controle do sistema. Também são utilizados controladores do tipo Proporcional-Integral-Derivativo, implementados para apoiar o estudo do desempenho da arquitetura no controle do servoposicionador pneumático.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Para a caracterização dos biótopos naturais da futura Unidade de Conservação (UC) do Morro Santana (Porto Alegre, RS) foi realizado o macrozoneamento da área de estudo utilizando-se a cobertura com fitofisionomias campestres e florestais nativas e as variáveis do meio físico: declividade, altitude e exposição solar. Em quatro macrozonas campestres e em nove florestais, foram realizados estudos fitossociológicos e estatísticos para definir as unidades e sub-unidades vegetais presentes e a relação destas com a variável distância aos cursos d’água, caracterizando assim os onze biótopos naturais da área de estudo. Os tipos naturais de uso e cobertura do solo ocupam 51,6% da área do morro e as categorias de uso antrópico cobrem 48,4%. As formações de campo nativo do Morro Santana foram caracterizadas a partir da estrutura da vegetação dominante fisionomicamente, por duas unidades e quatro sub-unidades de vegetação, sendo que a unidade Aristida filifolia - Axonopus sp1 obteve a maior freqüência e densidade, não ocorrendo em apenas uma macrozona. A unidade de vegetação Guapira opposita - Casearia sylvestris ocorreu em todas as macrozonas arbóreas amostradas e caracteriza a estrutura da vegetação dominante fisionomicamente, nestas formações O método seguiu o cruzamento de informações espacializadas utilizando o sistema de informação geográfica (SIG) Idrisi, versão 14.02 (Kilimanjaro). Uma nova análise conferiu valores ecológicos às áreas com cobertura campestre e florestal nativas do morro a partir dos parâmetros relativos à: climacidade das espécies presentes nas unidades e sub-unidades de vegetação, naturalidade das comunidades vegetais presentes e índices da configuração estrutural da paisagem (tamanho e forma das manchas e distância de áreas urbanas). Foram então somados os valores ecológicos de cada parâmetro e estabelecidas as quatro zonas de caracterização ecológica, que são: núcleo, extensão do núcleo, tamponamento e ligação, em ordem decrescente de valor ecológico. Os biótopos de formações campestres encontram-se com melhor grau de conservação em relação aos florestais, por comporem a maior parte da zona núcleo. As zonas de caracterização ecológica servem como importante ferramenta para a realização do plano de manejo da unidade de conservação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pesquisa quantitativa do tipo exploratório-descritivo, prospectivo, de caráter não experimental. O objetivo consistiu em conhecer as reações adversas imediatas ao contraste iodado intravenoso em pacientes internados, submetidos a tomografia computadorizada num hospital escola, sendo campo do estudo a Unidade de Tomografia do Hospital de Clínicas de Porto Alegre. A coleta de dados ocorreu através de planilha de registros preenchida pela equipe de enfermagem atuante na Unidade, durante as 24 horas de funcionamento do setor, no período entre outubro e dezembro de 2004, totalizando 351 pacientes observados. Os registros incluíram dados relativos à dinâmica do exame, características da clientela e ocorrência dos eventos em estudo. Para o tratamento dos dados, recorreu-se à estatística descritiva e descritiva, com emprego dos softwares SPSS, EPI INFO e PEPI. Os eventos adversos foram considerados imediatos quando ocorreram até 30 minutos após a injeção do contraste. Durante o período do estudo, todas as reações adversas apresentaram intensidade leve, manifestando-se com freqüência de 12,5% entre os 160 pacientes que receberam contraste iodado iônico e 1,0% entre os 191 pacientes que receberam contraste não iônico (p=0,000). O emprego do meio não iônico mostrou-se eficaz na prevenção de reações adversas ao contraste iodado, mesmo na presença de condições clínicas que aumentam o risco para ocorrência desses eventos. A administração intravenosa do contraste através de bomba injetora aumentou significativamente o percentual de reações adversas, em comparação com a injeção manual (p=0,013). O extravasamento de contraste, considerado um evento adverso local, ocorreu em 2,2% das 317 injeções em veia periférica, e os volumes extravasados oscilaram entre 1 e 15 mililitros, com média equivalente a 4,4 mililitros, não ocasionando complicações em nenhum dos casos. A administração intravenosa de contraste através de cateter plástico ocasionou freqüência significativamente menor de extravasamentos do que o emprego de agulha metálica (p=0,041). Os índices evidenciados no presente estudo encontram-se dentro dos limites que constam na revisão de literatura, apesar das pesquisas internacionais apresentarem diferenças entre si na seleção das amostras ou critérios para definição das reações adversas imediatas. Entre as recomendações, sugere-se que os serviços de tomografia conheçam as próprias taxas de reações adversas ao contraste iodado e as condições em que elas ocorrem, a fim de obter evidências para avaliação dos respectivos processos assistenciais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação apresenta alguns critérios para avaliação de ameaças e risco geotécnico aplicados à estabilidade de taludes. Inicialmente apresenta-se uma visão geral dos problemas envolvidos com a análise de risco geotécnico, a importância da análise probabilística e a sua comparação com a determinística, e as opções de gerenciamento descritas na literatura. Estas análises envolvem conceitos de probabilidade, estatística, geotecnia, geologia, meio ambiente e legislação, além do interesse público e defesa civil. Assim, são definidos os conceitos estatísticos envolvidos nessa área multidisciplinar, como variabilidade espacial, coeficiente de correlação entre os parâmetros de entrada do modelo, distância de autocorrelação, escala de flutuação e incertezas (de parâmetros, humanas e dos modelos). Os métodos probabilísticos de cálculo do fator de segurança, a probabilidade de ruptura e o índice de confiabilidade são revisados. Utilizou-se o método de Monte Carlo nas análises através do uso de um programa comercial. O método tem sido adotado por diversos pesquisadores por ser direto, eficiente para problemas matematicamente complexos e não ter a complexidade matemática de outros métodos. A metodologia de análise de ameaças e risco geotécnico foi aplicada a um talude modelo, similar aos taludes de colúvio de basalto encontrados nas partes inferiores da Escarpa dos Aparados da Serra em Santa Catarina Os resultados obtidos, a partir de dados experimentais disponíveis, foram o fator de segurança determinístico mínimo (1,20) e o fator de segurança médio obtido pelo método de Monte Carlo (1,205), índice de confiabilidade de 2,64 e probabilidade de ruptura de 0,41%. Foi discutida também a aceitabilidade do fator de segurança médio da análise probabilística, comparando-se os resultados obtidos com valores aceitos em obras similares.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho foi proposta e avaliada uma concepção alternativa de ensino de Física para o ensino médio, onde recursos de informática, como: animações, applets, páginas e softwares educacionais, foram incorporados ao contexto de aulas teóricas e de laboratório, no ensino de Cinemática, Dinâmica e Energia. Parte dos recursos de informática foi desenvolvida para este projeto, e parte foi selecionada dentre o material de livre acesso disponível na internet. O objetivo deste trabalho foi proporcionar aos alunos um ensino de Física mais dinâmico, com aplicação do que é estudado em sala de aula, relacionando conceitos com os fenômenos estudados, a partir de análises gráficas, exercícios, experiências virtuais e demais recursos da informática. O referencial teórico para o desenvolvimento do projeto foi o da aprendizagem sob um enfoque cognitivista (Piaget), através de um desenvolvimento progressivo, com a aquisição e análise do conhecimento pelo aluno durante todo processo educacional. O material educacional produzido foi aplicado no Colégio Salesiano Dom Bosco (Escola Particular), em duas etapas: em 2003 de maneira experimental, com duas turmas de primeiro ano do Ensino Médio (101 e 102), a fim de verificar qual metodologia seria a mais adequada, quais as estratégias a serem desenvolvidas e quais as eventuais dificuldades encontradas. Na segunda etapa, em 2004, foi aplicado o material otimizado na turma 103. A avaliação do material foi realizada a partir de um teste aplicado no início e no final do período letivo. O teste teve por objetivo verificar as concepções sobre conceitos de Física trazidos das séries anteriores. Observou-se um aumento significativo no número de acertos no final do ano letivo, o que sugere uma evolução no entendimento dos conceitos estudados em sala de aula. A eficiência do material pôde ser melhor avaliada ao comparar os resultados do teste obtidos para alunos de duas turmas, a que participou do projeto, e outra, da mesma série e Escola, que não participou do projeto. Para esta outra turma, o índice de acertos praticamente não se alterou em comparação com o teste realizado no início do ano, indicando que o método tradicional foi pouco eficiente em provocar mudanças nas concepções alternativas dos estudantes. Para a turma que participou do projeto, houve mudanças significativas. O produto educacional produzido inclui um CD, contendo o hipertexto desenvolvido sobre: Cinemática, Dinâmica e Energia, com textos, ambiente educacional, vídeos, exercícios e artigos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é descrito um método automático para o cálculo das dimensões de caixas, em tempo real, a partir de uma única imagem obtida com projeção perspectiva. Conhecendo a orientação da caixa no espaço tridimensional e sua distância em relação à câmera, as coordenadas 3D de seus vértices podem ser estimadas e suas dimensões calculadas. Na técnica proposta, são utilizados conceitos de geometria projetiva para estimar a orientação espacial da caixa de interesse a partir de sua silhueta. Já a distância da caixa em relação à câmera é estimada por meio da projeção de feixes de laser sobre uma das faces visíveis da caixa. Esta abordagem pode ser aplicada quando duas ou três faces da caixa de interesse são visíveis simultaneamente na imagem, mesmo quando a caixa encontra-se parcialmente oclusa por outros objetos na cena. Entre as contribuições deste trabalho está o desenvolvimento de um eficiente processo de votação para a transformada de Hough, onde os pixels de uma imagem binária são processados em grupos ao invés de individualmente, como ocorre no método convencional. Também é apresentado um modelo estatístico para a remoção de fundo de cena. Nesse modelo, a cor de fundo é representada sob diferentes condições de iluminação por meio da delimitação de uma região no espaço de cores RGB. O modelo proposto não requer parametrização e é próprio para o uso em aplicações que requeiram câmeras móveis. Para a validação das técnicas descritas neste trabalho, foi construído um protótipo de scanner que calcula as dimensões de caixas a partir de imagens em tempo real. Com o auxilio do scanner, foram capturadas imagens e calculadas as dimensões de diversas caixas reais e sintéticas. As caixas sintéticas foram utilizadas em um ambiente controlado para a validação das técnicas propostas Um dos aspectos importantes deste trabalho é a análise da confiabilidade das medidas obtidas por meio da técnica proposta. Com o objetivo de estudar a propagação de erros ao longo do processo de cálculo das medidas, foi aplicado um método analítico baseado na Teoria de Erros. Também são apresentados estudos estatísticos envolvendo medições realizadas com o protótipo. Estes estudos levam em conta a diferença entre as medidas calculadas pelo sistema e as medidas reais das caixas. A análise dos resultados permite concluir que o método proposto é acurado e preciso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho insere-se no debate do uso de ambientes informatizados como potencializadores da aprendizagem, particularmente no que se refere à de alunos que estão na fase inicial da leitura e escrita. O objetivo do presente estudo foi analisar as possíveis relações existentes entre o aprendizado da leitura e escrita e o uso do computador, identificando as estratégias de leitura e escrita de alunos em processo de alfabetização, na 1ª ´serie do Ensino Fundamental, por meio do uso de narrativas e histórias em quadrinhos, utilizando softwares como facilitadores da aprendizagem. A discussão teórica conferiu prioridade à abordagem sócio-histórica, com ênfase nos postulados de Vygotsky associado a reflexões de autores como Phillipe Meirieu. A pesquisa caracteriza-se como uma investigação qualitativa que utilizou prioritariamente a observação participante como recurso metodológico. A escola pesquisada integra-se na rede pública municipal de Fortaleza , situada em um bairro periférico com população predominante de classe popular. O trabalho de campo foi desenvolvido durante um período de duração de oito meses o qual houve acompanhamento de turmas da 1º série, com especial atenção para uma turma de alunos repetentes e com defasagem idade/escolaridade. O estudo envolveu: levantamento de conhecimentos prévios dos alunos, exploração de diferentes portadores de textos, conhecimento do software HQ (Histórias em Quadrinhos), Gibizinho, Quadrinhos da Mônica, chat, fotologs na sala de informática da escola; escrita de histórias usando o software Quadrinhos da Mônica. Como resultados deste estudo, identifiquei posturas variadas, por parte dos professores quanto à informática educativa. No que se refere aos alunos, os aspectos positivos associam-se ao fato de terem transitado pelos diferentes espaços, utilizando materiais que existiam na escola e que não eram utilizados; foram estimulados pelas características lúdicas dos materiais e pela logicidade seqüencial de uma narrativa e histórias em quadrinhos, com articulação com seus contextos de origem.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O algoritmo de simulação seqüencial estocástica mais amplamente utilizado é o de simulação seqüencial Gaussiana (ssG). Teoricamente, os métodos estocásticos reproduzem tão bem o espaço de incerteza da VA Z(u) quanto maior for o número L de realizações executadas. Entretanto, às vezes, L precisa ser tão alto que o uso dessa técnica pode se tornar proibitivo. Essa Tese apresenta uma estratégia mais eficiente a ser adotada. O algoritmo de simulação seqüencial Gaussiana foi alterado para se obter um aumento em sua eficiência. A substituição do método de Monte Carlo pela técnica de Latin Hypercube Sampling (LHS), fez com que a caracterização do espaço de incerteza da VA Z(u), para uma dada precisão, fosse alcançado mais rapidamente. A técnica proposta também garante que todo o modelo de incerteza teórico seja amostrado, sobretudo em seus trechos extremos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é obter os parâmetros turbulentos para o crescimento da camada limite planetária (CLP), durante a realizaçãoo do experimento Olad (Overland along wind dispersion experiment), conduzido na transição da noite para o dia. Nesta hora a CLP exibe uma altura, geralmente, pequena, disponibilizando pouco volume para a dispersão dos poluentes. Assim, concentrações superficiais elevadas podem ocorrer, atacando materiais, plantas e a saúde da população. Logo, conhecer os parâmetros do crescimneto é de fundamental importância para o correto modelamento da dispersão atmosférica ao amanhecer. A validação dos parâmetros é realizada a partir da solução da equação da difusão-advecção bidimensional, pelo método da GILTT (Generalized Integral Laplace Transform Technique). São empregados coeficientes de difusão turbulenta (problema de fechamento) dependentes da estabilidade atmosférica. As concentrações superficiais tridimensionais são obtidas através do espalhamento lateral da pluma com distribuição gaussiana. Apresentam-se os resultados numéricos e estatísticos, comparando os resultados obtidos com os dados experimentais. O modelo proposto mostrou-se aceitável em relação aos dados do experimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho apresenta um estudo experimental sobre o desempenho de reforços de pavimentos asfálticos de uma via urbana com elevado volume de tráfego comercial pesado no município de São Paulo, monitorados durante quatro anos desde a mais recente restauração executada. A pesquisa envolveu o acompanhamento sistemático de seções pré-selecionadas na Avenida dos Bandeirantes, por meio de medidas de irregularidade longitudinal com um medidor tipo resposta bem como do trincamento superficial com o mapeamento e registros realizados em campo. A Avenida dos Bandeirantes é o principal corredor de interligação entre as vias localizadas no Oeste do Estado de São Paulo com o Porto de Santos, absorvendo 58% do total de veículos que passam pela Região Metropolitana, totalizando aproximadamente de 250.000 veículos/dia (em ambos os sentidos), sendo destes, cerca de 20.000 caminhões. Combase em dados levantados em campo e em projetos de restauração anteriormente realizadosforam desenvolvidos modelos empíricos de previsão de desempenho dos reforçosde pavimentos asfálticos,levando em consideração fatores relevantes para seu comportamento. Para isto, foram testados modelos lineares com diferentes estruturas de covariância e também modelos de regressão logística, que ao final mostraram-se mais conservadores que aqueles empregados na previsão de desempenho do programa HDM-4, para as condições do problema, no que tange à evolução do trincamento. No caso de previsão de irregularidade, observaram-se resultados similares entre os modelos desenvolvidos e aqueles preconizados pelo programa HDM-4. Fornecer suporte para decisões relacionadas à gerência de manutenção de pavimentos urbanos de grandes metrópoles e considerar modelos estatísticos ainda pouco utilizados para prever desempenho foram as principais contribuições buscadas durante a realização da pesquisa.