948 resultados para Matemática. Modelagem matemática. Modelagem multiescala. Homogeneização. Meios porosos argilosos
Resumo:
As ligações desempenham um papel fundamental no comportamento global das estruturas de aço. Inúmeros trabalhos de pesquisa têm sido desenvolvidos para entender o comportamento real de uma ligação e sua influência na resistência global dos pórticos. Atualmente, a Norma Brasileira de estruturas de aço de edificações, NBR 8800, considera o comportamento das ligações entre duas situações extremas: rígidas, onde não ocorre nenhuma rotação entre os membros conectados, transferindo momento fletor, força cortante e força normal; ou flexíveis, caracterizadas pela liberdade de rotação entre os membros conectados, impedindo a transmissão de momento fletor. Outras normas de projeto de estruturas de aço, consideram que as ligações apresentam um comportamento intermediário, ou seja, semi-rigídas, que podem estar submetidas a uma combinação de momento fletor e esforço normal. Porém, mesmo com a combinação, estas normas não consideram a presença de esforço normal (tração e/ou compressão). Uma limitação empírica de 5% da resistência plástica da viga é a única condição imposta no Eurocode 3. Para o estudo da ligação semi-rigída será utilizada a filosofia do Método das Componentes, que verifica a resistência da ligação e sua classificação quanto à rigidez rotacional, desenvolvida através de modelos mecânicos (modelos de molas). O objetivo deste trabalho é descrever alguns resultados de caracterização de ligações viga-coluna com placa de extremidade ajustada à altura da viga obtidos através de um modelo de elementos finitos. Para tal, será realizada uma análise não-linear geométrica e de material. Esta análise possibilitará avaliar os principais parâmetros que influenciam no comportamento deste componente no que diz respeito a sua avaliação em termos de distribuição de tensões e deformações no modelo de forma global.
Resumo:
Os antipsicóticos são drogas utilizadas no tratamento de muitos transtornos psiquiátricos, sendo classificados em dois grupos: típicos e atípicos. Os típicos formam o grupo de drogas que bloqueiam especialmente os receptores de dopamina e, por isto, causam efeitos colaterais característicos, que se manifestam através de sintomas extrapiramidais e podem terminar em discinesia tardia. Os atípicos apresentam eficácia antipsicótica similar à dos antipsicóticos típicos, mas produzem menos efeitos colaterais extrapiramidais e não causam discinesia tardia. Os antipsicóticos se ligam às proteínas plasmáticas, principalmente a albumina, a qual representa cerca de 60% do total das proteínas no soro humano. Neste trabalho estudamos os processos de interação de duas drogas antipsicóticas atípicas, risperidona e sulpirida, com as albuminas séricas humana (HSA) e bovina (BSA), através da técnica de supressão da fluorescência intrínseca do triptofano. A partir dos espectros de fluorescência, a análise dos dados foi feita obtendo-se os gráficos e as constantes de Stern-Volmer. A análise da supressão da fluorescência foi feita a partir da média aritmética dos dados oriundos dos experimentos realizados em cada condição adotada. Como a molécula da sulpirida é fluorescente desenvolvemos uma modelagem matemática do processo de interação, que nos permitiu então obter os dados referentes à supressão da fluorescência da proteína. Os resultados mostraram que a risperidona e a sulpirida suprimem a fluorescência de ambas albuminas por um processo de quenching estático, formando complexos droga-albumina. A risperidona tem uma afinidade com a HSA cerca de 6,5 vezes maior do que a sulpirida, a 37 oC. As constantes de associação calculadas para a interação risperidona-HSA, através da Teoria de Stern-Volmer, foram 1,43 ( 0,05) x 105 M-1, a 37 C, e 2,56 ( 0,09) x 105 M-1, a 25 C1; e para a sulpirida, 2,20 ( 0,08) x 104 M-1, a 37 C, e 5,46 ( 0,20) x 104 M-1, a 25 C. Como a taxa de quenching da BSA foi maior do que a da HSA, sugerimos que o sítio primário para a risperidona nas albuminas esteja localizado mais próximo ao domínio do triptofano 134 da BSA do que do domínio do triptofano 212 da HSA. O mesmo sugerimos com relação ao sítio para a sulpirida a 37 C.
Resumo:
Em 2005, a Agência Nacional de Saúde Suplementar (ANS) estabelece o padrão TISS (Troca de Informação na Saúde Suplementar), intercâmbio eletrônico obrigatório entre as operadoras de planos de saúde (cerca de 1500 registradas na ANS) e prestadores de serviços (cerca de 200 mil) sobre os eventos de assistência prestados aos beneficiários. O padrão TISS foi desenvolvido seguindo a estrutura do Comitê ISO/TC215 de padrões para informática em saúde e se divide em quatro partes: conteúdo e estrutura, que compreende a estrutura das guias em papel; representação de conceitos em saúde, que se refere às tabelas de domínio e vocabulários em saúde; comunicação, que contempla as mensagens eletrônicas; e segurança e privacidade, seguindo recomendação do Conselho Federal de Medicina (CFM). Para aprimorar sua metodologia de evolução, essa presente tese analisou o grau de interoperabilidade do padrão TISS segundo a norma ISO 20514 (ISO 20514, 2005) e a luz do modelo dual da Fundação openEHR, que propõe padrões abertos para arquitetura e estrutura do Registro Eletrônico de Saúde (RES). O modelo dual da Fundação openEHR é composto, no primeiro nível, por um modelo de referência genérico e, no segundo, por um modelo de arquétipos, onde se detalham os conceitos e atributos. Dois estudos foram realizados: o primeiro se refere a um conjunto de arquétipos demográficos elaborados como proposta de representação da informação demográfica em saúde, baseado no modelo de referência da Fundação openEHR. O segundo estudo propõe um modelo de referência genérico, como aprimoramento das especificações da Fundação openEHR, para representar o conceito de submissão de autorização e contas na saúde, assim como um conjunto de arquétipos. Por fim, uma nova arquitetura para construção do padrão TISS é proposta, tendo como base o modelo dual da Fundação openEHR e como horizonte a evolução para o RES centrado no paciente
Resumo:
O Leito Móvel Simulado (LMS) é um processo de separação de compostos por adsorção muito eficiente, por trabalhar em um regime contínuo e também possuir fluxo contracorrente da fase sólida. Dentre as diversas aplicações, este processo tem se destacado na resolução de petroquímicos e principalmente na atualidade na separação de misturas racêmicas que são separações de um grau elevado de dificuldade. Neste trabalho foram propostas duas novas abordagens na modelagem do LMS, a abordagem Stepwise e a abordagem Front Velocity. Na modelagem Stepwise as colunas cromatográficas do LMS foram modeladas com uma abordagem discreta, onde cada uma delas teve seu domínio dividido em N células de mistura interligadas em série, e as concentrações dos compostos nas fases líquida e sólida foram simuladas usando duas cinéticas de transferência de massa distintas. Essa abordagem pressupõe que as interações decorrentes da transferência de massa entre as moléculas do composto nas suas fases líquida e sólida ocorram somente na superfície, de forma que com essa suposição pode-se admitir que o volume ocupado por cada molécula nas fases sólida e líquida é o mesmo, o que implica que o fator de residência pode ser considerado igual a constante de equilíbrio. Para descrever a transferência de massa que ocorre no processo cromatográfico a abordagem Front Velocity estabelece que a convecção é a fase dominante no transporte de soluto ao longo da coluna cromatográfica. O Front Velocity é um modelo discreto (etapas) em que a vazão determina o avanço da fase líquida ao longo da coluna. As etapas são: avanço da fase líquida e posterior transporte de massa entre as fases líquida e sólida, este último no mesmo intervalo de tempo. Desta forma, o fluxo volumétrico experimental é utilizado para a discretização dos volumes de controle que se deslocam ao longo da coluna porosa com a mesma velocidade da fase líquida. A transferência de massa foi representada por dois mecanismos cinéticos distintos, sem (tipo linear) e com capacidade máxima de adsorção (tipo Langmuir). Ambas as abordagens propostas foram estudadas e avaliadas mediante a comparação com dados experimentais de separação em LMS do anestésico cetamina e, posteriormente, com o fármaco Verapamil. Também foram comparados com as simulações do modelo de equilíbrio dispersivo para o caso da Cetamina, usado por Santos (2004), e para o caso do Verapamil (Perna 2013). Na etapa de caracterização da coluna cromatográfica as novas abordagens foram associadas à ferramenta inversa R2W de forma a determinar os parâmetros globais de transferência de massa apenas usando os tempos experimentais de residência de cada enantiômero na coluna de cromatografia líquida de alta eficiência (CLAE). Na segunda etapa os modelos cinéticos desenvolvidos nas abordagens foram aplicados nas colunas do LMS com os valores determinados na caracterização da coluna cromatográfica, para a simulação do processo de separação contínua. Os resultados das simulações mostram boa concordância entre as duas abordagens propostas e os experimentos de pulso para a caracterização da coluna na separação enantiomérica da cetamina ao longo do tempo. As simulações da separação em LMS, tanto do Verapamil quando da Cetamina apresentam uma discrepância com os dados experimentais nos primeiros ciclos, entretanto após esses ciclos iniciais a correlação entre os dados experimentais e as simulações. Para o caso da separação da cetamina (Santos, 2004), a qual a concentração da alimentação era relativamente baixa, os modelos foram capazes de predizer o processo de separação com as cinéticas Linear e Langmuir. No caso da separação do Verapamil (Perna, 2013), onde a concentração da alimentação é relativamente alta, somente a cinética de Langmuir representou o processo, devido a cinética Linear não representar a saturação das colunas cromatográficas. De acordo como o estudo conduzido ambas as abordagens propostas mostraram-se ferramentas com potencial na predição do comportamento cromatográfico de uma amostra em um experimento de pulso, assim como na simulação da separação de um composto no LMS, apesar das pequenas discrepâncias apresentadas nos primeiros ciclos de trabalho do LMS. Além disso, podem ser facilmente implementadas e aplicadas na análise do processo, pois requer um baixo número de parâmetros e são constituídas de equações diferenciais ordinárias.
Resumo:
A modelagem matemática e computacional é uma ferramenta que tem sido bastante utilizada no campo da Biologia e das Ciências Biomédicas. Nos dias de hoje, uma quantidade significativa de dados experimentais nessa área pode ser encontrada na literatura, tornando possível o desenvolvimento de modelos que combinem a experimentação e hipóteses teóricas. O objetivo do presente projeto é implementar um modelo matemático de transmissão sináptica conectando neurônios em um circuito de descargas repetitivas ou reverberativo, a fim de investigar o seu comportamento diante de variações paramétricas. Através de simulações computacionais, utilizando um programa desenvolvido em linguagem C++, pretende-se utilizá-lo para simular um circuito de memória imediata. Afora o considerável avanço da Neurofisiologia e Neurociência computacional no sentido do entendimento das características fisiológicas e comportamentais das habilidades do Sistema Nervoso Central, muitos mecanismos neuronais ainda permanecem completamente obscuros. Ainda não se conhece definitivamente o mecanismo pelo qual o cérebro adquire, armazena e evoca as informações. Porém, o postulado de Hebb referente às redes reverberantes, onde a idéia de que redes de reverberação facilitariam a associação de dados coincidentes entre informações sensoriais, temporalmente divergentes, tem sido aceito para explicar a formação de memória imediata (Johnson et al., 2009). Assim, com base no postulado de Hebb, os resultados observados no modelo neuromatemático-computacional adotado possuem características de um circuito de memória imediata.
Resumo:
A presente dissertação propõe uma abordagem alternativa na simulação matemática de um cenário preocupante em ecologia: o controle de pragas nocivas a uma dada lavoura de soja em uma específica região geográfica. O instrumental teórico empregado é a teoria dos jogos, de forma a acoplar ferramentas da matemática discreta à análise e solução de problemas de valor inicial em equações diferenciais, mais especificamente, as chamadas equações de dinâmica populacional de Lotka-Volterra com competição. Essas equações, que modelam o comportamento predador-presa, possuem, com os parâmetros inicialmente utilizados, um ponto de equilíbrio mais alto que o desejado no contexto agrícola sob exame, resultando na necessidade de utilização da teoria do controle ótimo. O esquema desenvolvido neste trabalho conduz a ferramentas suficientemente simples, de forma a tornar viável o seu uso em situações reais. Os dados utilizados para o tratamento do problema que conduziu a esta pesquisa interdisciplinar foram coletados de material bibliográfico da Empresa Brasileira de Pesquisa Agropecuária EMBRAPA.
Resumo:
Uma dedução dos critérios de multicriticalidade para o cálculo de pontos críticos de qualquer ordem representa a formalização de ideias utilizadas para calcular pontos críticos e tricríticos e ainda amplia tais ideias. De posse desta dedução pode-se compreender os critérios de tricriticalidade e, com isso, através de uma abordagem via problema de otimização global pode-se fazer o cálculo de pontos tricríticos utilizando um método numérico adequado de otimização global. Para evitar um excesso de custo computacional com rotinas numéricas utilizou-se aproximações na forma de diferenças finitas dos termos que compõem a função objetivo. Para simular a relação P v - T optou-se pela equação de estado cúbica de Peng-Robinson e pela regra clássica de fluidos de van der Vaals, para modelagem do problema também se calculou os tensores de ordem 2, 3, 4 e 5 da função do teste de estabilidade. Os resultados obtidos foram comparados com dados experimentais e por resultados obtidos com outros autores que utilizaram métodos numéricos, equação de estado ou abordagem diferente das utilizadas neste trabalho.
Resumo:
O conceito de objetividade é central na epistemologia de Gaston Bachelard (1884-1962). O problema que a pesquisa busca solucionar é a definição de objetividade na filosofia bachelardiana, o que implica na necessidade de explicitar a relação entre a objetividade e a matemática. A partir da leitura e da análise da obra epistemológica de Bachelard que trata da questão da objetividade, é demonstrado que o filósofo utiliza dois diferentes conceitos de objetividade: o primeiro é o de objetividade como reconhecimento e afastamento dos obstáculos epistemológicos que se apresentam como imagens subjetivas na prática científica; o segundo conceito é o de objetividade como o processo de retificação do conhecimento científico. Apresenta-se um exemplo de objetivação: o conceito de substância, no sentido realista ingênuo, desaparece nas ciências físicas do século XX, e surge o conceito complexo de um átomo não substancial, mas matemático. A partir desse exemplo, é demonstrado que, para Bachelard, o processo de objetivação do conhecimento é sincrônico ao processo de matematização do objeto. e a razão para essa relação entre a matematização e a objetivação é explicada.
Resumo:
No presente trabalho foram utilizados modelos de classificação para minerar dados relacionados à aprendizagem de Matemática e ao perfil de professores do ensino fundamental. Mais especificamente, foram abordados os fatores referentes aos educadores do Estado do Rio de Janeiro que influenciam positivamente e negativamente no desempenho dos alunos do 9 ano do ensino básico nas provas de Matemática. Os dados utilizados para extrair estas informações são disponibilizados pelo Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira que avalia o sistema educacional brasileiro em diversos níveis e modalidades de ensino, incluindo a Educação Básica, cuja avaliação, que foi foco deste estudo, é realizada pela Prova Brasil. A partir desta base, foi aplicado o processo de Descoberta de Conhecimento em Bancos de Dados (KDD - Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós-processamento dos dados. Os padrões foram extraídos dos modelos de classificação gerados pelas técnicas árvore de decisão, indução de regras e classificadores Bayesianos, cujos algoritmos estão implementados no software Weka (Waikato Environment for Knowledge Analysis). Além disso, foram aplicados métodos de grupos e uma metodologia para tornar as classes uniformemente distribuídas, afim de melhorar a precisão dos modelos obtidos. Os resultados apresentaram importantes fatores que contribuem para o ensino-aprendizagem de Matemática, assim como evidenciaram aspectos que comprometem negativamente o desempenho dos discentes. Por fim, os resultados extraídos fornecem ao educador e elaborador de políticas públicas fatores para uma análise que os auxiliem em posteriores tomadas de decisão.
Resumo:
Nos dias atuais, a maioria das operações feitas por empresas e organizações é armazenada em bancos de dados que podem ser explorados por pesquisadores com o objetivo de se obter informações úteis para auxílio da tomada de decisão. Devido ao grande volume envolvido, a extração e análise dos dados não é uma tarefa simples. O processo geral de conversão de dados brutos em informações úteis chama-se Descoberta de Conhecimento em Bancos de Dados (KDD - Knowledge Discovery in Databases). Uma das etapas deste processo é a Mineração de Dados (Data Mining), que consiste na aplicação de algoritmos e técnicas estatísticas para explorar informações contidas implicitamente em grandes bancos de dados. Muitas áreas utilizam o processo KDD para facilitar o reconhecimento de padrões ou modelos em suas bases de informações. Este trabalho apresenta uma aplicação prática do processo KDD utilizando a base de dados de alunos do 9 ano do ensino básico do Estado do Rio de Janeiro, disponibilizada no site do INEP, com o objetivo de descobrir padrões interessantes entre o perfil socioeconômico do aluno e seu desempenho obtido em Matemática na Prova Brasil 2011. Neste trabalho, utilizando-se da ferramenta chamada Weka (Waikato Environment for Knowledge Analysis), foi aplicada a tarefa de mineração de dados conhecida como associação, onde se extraiu regras por intermédio do algoritmo Apriori. Neste estudo foi possível descobrir, por exemplo, que alunos que já foram reprovados uma vez tendem a tirar uma nota inferior na prova de matemática, assim como alunos que nunca foram reprovados tiveram um melhor desempenho. Outros fatores, como a sua pretensão futura, a escolaridade dos pais, a preferência de matemática, o grupo étnico o qual o aluno pertence, se o aluno lê sites frequentemente, também influenciam positivamente ou negativamente no aprendizado do discente. Também foi feita uma análise de acordo com a infraestrutura da escola onde o aluno estuda e com isso, pôde-se afirmar que os padrões descobertos ocorrem independentemente se estes alunos estudam em escolas que possuem infraestrutura boa ou ruim. Os resultados obtidos podem ser utilizados para traçar perfis de estudantes que tem um melhor ou um pior desempenho em matemática e para a elaboração de políticas públicas na área de educação, voltadas ao ensino fundamental.
Resumo:
Diversas aplicações industriais relevantes envolvem os processos de adsorção, citando como exemplos a purificação de produtos, separação de substâncias, controle de poluição e umidade entre outros. O interesse crescente pelos processos de purificação de biomoléculas deve-se principalmente ao desenvolvimento da biotecnologia e à demanda das indústrias farmacêutica e química por produtos com alto grau de pureza. O leito móvel simulado (LMS) é um processo cromatográfico contínuo que tem sido aplicado para simular o movimento do leito de adsorvente, de forma contracorrente ao movimento do líquido, através da troca periódica das posições das correntes de entrada e saída, sendo operado de forma contínua, sem prejuízo da pureza das correntes de saída. Esta consiste no extrato, rico no componente mais fortemente adsorvido, e no rafinado, rico no componente mais fracamente adsorvido, sendo o processo particularmente adequado a separações binárias. O objetivo desta tese é estudar e avaliar diferentes abordagens utilizando métodos estocásticos de otimização para o problema inverso dos fenômenos envolvidos no processo de separação em LMS. Foram utilizados modelos discretos com diferentes abordagens de transferência de massa, com a vantagem da utilização de um grande número de pratos teóricos em uma coluna de comprimento moderado, neste processo a separação cresce à medida que os solutos fluem através do leito, isto é, ao maior número de vezes que as moléculas interagem entre a fase móvel e a fase estacionária alcançando assim o equilíbrio. A modelagem e a simulação verificadas nestas abordagens permitiram a avaliação e a identificação das principais características de uma unidade de separação do LMS. A aplicação em estudo refere-se à simulação de processos de separação do Baclofen e da Cetamina. Estes compostos foram escolhidos por estarem bem caracterizados na literatura, estando disponíveis em estudos de cinética e de equilíbrio de adsorção nos resultados experimentais. De posse de resultados experimentais avaliou-se o comportamento do problema direto e inverso de uma unidade de separação LMS visando comparar os resultados obtidos com os experimentais, sempre se baseando em critérios de eficiência de separação entre as fases móvel e estacionária. Os métodos estudados foram o GA (Genetic Algorithm) e o PCA (Particle Collision Algorithm) e também foi feita uma hibridização entre o GA e o PCA. Como resultado desta tese analisouse e comparou-se os métodos de otimização em diferentes aspectos relacionados com o mecanismo cinético de transferência de massa por adsorção e dessorção entre as fases sólidas do adsorvente.
Resumo:
Esta pesquisa realiza um estudo sobre a formação de professores em Física, Química e Matemática na dimensão das políticas públicas educacionais e das novas ordenações do mundo produtivo. O eixo metodológico investe na abordagem qualitativa, elegendo como campo empírico o Instituto de Educação, Ciência e Tecnologia do Rio de Janeiro (IFRJ), mais especificamente, o campus Nilópolis, localizado na região da Baixada Fluminense (recorte geopolítico), no Estado do Rio de Janeiro. A técnica de pesquisa baseou-se na realização de entrevistas com licenciandos cujo perfil compreende àquele que tenha realizado atividades de estágio docente. Esta escolha justifica-se por ser este o perfil de estudante mais próximo do término do curso e que, principalmente, através desta experiência, apresenta concepções, ainda que iniciais, da realidade da educação básica. Este estudo investiu na história dos sujeitos participantes através de seus respectivos relatos, onde foi possível categorizá-los em importantes aspectos que se interconectam: 1) na análise das políticas públicas para a educação superior a partir da ênfase na investigação de como estas se efetivam em uma territorialidade e no contexto de uma nova institucionalidade; 2) na reflexão sobre o impacto das transformações do mundo do trabalho na subjetividade dos licenciandos, engendrando a possível atividade docente no cenário de crise de identidades profissionais; e 3) no exame da realidade das escolas da educação básica, espaço onde a formação se destina. Este caminho permitiu refletir sobre o lugar do magistério nas escolhas de formação e nas perspectivas profissionais.
Resumo:
Um método numérico espectronodal (END) livre de erros de truncamento espacial é desenvolvido para problemas unidimensionais de difusão de nêutrons monoenergéticos em duas versões. Na versão de problemas de autovalor, o método gera soluções numéricas para o perfil do fluxo escalar e para o fator de multiplicação efetivo (k), que coincidem com a solução analítica dominante, afora os erros da aritmética finita computacional. Na versão de fonte fxa, o método também gera soluções numéricas analíticas para o problema de fonte fixa correspondente, onde a fonte de fissão, com dependência espacial, é obtida analiticamente, a partir da reconstrução espacial do fluxo escalar gerado pelo método END para problemas de autovalor. Alguns experimentos numéricos são apresentados para dois problemas modelos a fim de ilustrar a precisão do método.
Resumo:
Esta dissertação apresenta um novo modelo criado para a previsão do valor da tensão superficial de misturas de hidrocarbonetos. Pode ser utilizado na forma preditiva ou correlativa. Este modelo foi baseado no modelo preditivo para soluções ideais de HildebrandScott (1950) e no modelo correlativo de JouybanAcree (2004). Outras regras de mistura foram avaliadas e comparadas com o modelo proposto, incluindo abordagens clássicas como de Sprow e Prausnitz, parácoro e estados correspondentes. Foram avaliados os desempenhos dos modelos escolhidos na previsão e na correlação da tensão superficial de misturas de hidrocarbonetos em diferentes temperaturas que continham diferentes assimetrias na mistura, tanto em natureza química (e.g., parafínicos, naftênicos e aromáticos) quanto em tamanho de cadeia. No total foram empregados 773 dados experimentais. Dentre os modelos preditivos, o modelo proposto foi o de melhor desempenho. Para sistemas com comportamento próximo da idealidade, esse modelo apresentou desvios em relação aos dados experimentais compatíveis com o erro experimental. Todos os modelos correlativos estudados apresentaram desvios essencialmente da ordem do erro experimental. O modelo proposto é importante, pois é capaz de prever a tensão superficial de misturas binárias aproximadamente ideais de hidrocarbonetos com elevada acurácia, além de permitir a correlação eficiente dos dados de todas as misturas estudadas
Resumo:
O presente estudo teve como objetivo geral compreender o processo de aprendizagem da matemática de estudantes durante o ciclo de alfabetização na cidade do Rio de Janeiro. Para isso, fez-se uso dos dados de uma pesquisa longitudinal, denominada Estudo Longitudinal da Geração Escolar 2005 GERES 2005. Esta Pesquisa consistiu em um estudo de painel que acompanhou ao longo de quatro anos consecutivos (de 2005 a 2008) uma amostra de estudantes do primeiro segmento do Ensino Fundamental (1 à 4 série e/ou 2 ao 5 ano) em cinco cidades brasileiras - Rio de Janeiro, Belo Horizonte, Campinas, Campo Grande e Salvador, por meio de testes de Matemática e Leitura aplicados aos estudantes e de questionários contextuais aplicados a seus professores, aos diretores das escolas, e aos pais. Especificamente o estudo concentrou-se sobre os dados referentes à rede municipal do Rio de Janeiro e mais especificamente ao período correspondente ao ciclo de alfabetização. Foram analisados os resultados médios em matemática dos estudantes nas três primeiras Ondas de avaliação e o percentual de acertos nos itens comuns a essas Ondas, com o intuito de verificar a evolução da aprendizagem em matemática ao longo do início da escolarização nos anos iniciais. Dentre os principais resultados da pesquisa foi possível perceber certa fragilidade na construção dos conceitos matemáticos básico dos anos iniciais, evidenciando que possivelmente a construção da linguagem matemática encontra-se aquém do esperado para os estudantes no início de sua formação matemática. Possivelmente, estes resultados reflitam uma prática comum nas escolas em que a ênfase do processo de aprendizagem esteja centrada em processos individuais, em contextos pouco familiares à criança, além da proposição de atividades que pouco exploram o raciocínio lógico e dedutivo do aluno, ou seja, o pensar sobre de forma lúdica e criativa. Tudo isso tem contribuído para aumentar a distância entre estudantes de diferentes classes sociais ou diferentes redes de ensino.