809 resultados para Modelagem fenomenológica
Resumo:
Para a maioria dos municípios brasileiros, a instalação de um aterro sanitário é um desafio, sendo uma das dificuldades o custo elevado. Existem algumas formas de mitigar estes custos e uma delas é através do mercado de emissões. Com planejamento prévio suficiente, é possível queimar o metano gerado através da degradação do resíduo, podendo resultar em benefícios para o aterro tanto através do aproveitamento (geração de energia ou venda direta) quanto recebimento de algum tipo de certificado de emissões negociável. Incluído neste planejamento prévio suficiente está a realização da estimativa ex-ante de emissão de metano para saber previamente qual será o aproveitamento mais indicado e a eventual receita oriunda da queima. Quando analisados os projetos de MDL feitos em aterros sanitários, pode ser notado que estas estimativas são muitas vezes mal feitas, gerando valores estimados muito acima do realmente observado durante a operação. Este erro acarreta uma perda de credibilidade deste tipo de projeto, já que o número esperado é raramente alcançado. Existem alguns fatores que contribuem para esta discrepância de valores, sendo problemas operacionais (como exemplo podem ser citados deficiência no sistema de captura do biogás e problemas na captação e recirculação de lixiviado) e de modelagem (utilização de valores de entrada experimentais obtidos sob situações muito diferentes das encontradas nos aterros brasileiros, por exemplo) os possíveis principais vilões. Este trabalho visa apresentar e discutir os principais problemas na realização de estimativas prévias de emissão de metano em aterros sanitários utilizando projetos brasileiros de MDL registrados e que estejam atualmente emitindo créditos de carbono como base para analisar a qualidade das estimativas feitas atualmente. Além disto, busca-se também entrevistar profissionais da área para tentar obter diferentes pontos de vista sobre esta questão. Fica claro que os valores estimados, de um modo geral, são entre 40 e 50% superiores aos observados. Metade dos especialistas aponta problemas operacionais diversos como os principais contribuintes desta diferença, mas problemas na modelagem parecem influenciar decisivamente na realização das estimativas. A utilização de valores de entrada no modelo precisa ser criteriosamente analisada e devem ser utilizados números obtidos através de pesquisas que representem a realidade do aterro em questão.
Resumo:
A geotecnia constitui uma disciplina relativamente recente na área da engenharia civil, e dessa disciplina faz parte um capítulo ainda menos estudado que trata de fundações submetidas a esforços de tração. O presente trabalho deriva do conjunto de provas de cargas realizado para um importante projeto de linhas de transmissão que permitiu a aferição da teoria de capacidade de carga à tração da Universidade de Grenobel, cujos estudos comparativos mostram bons resultados para fins de aplicações práticas. De posse da extensa documentação técnica produzida e documentada por esse estudo foi possível comparar os resultados obtidos pelas provas de cargas e os resultados teóricos com os resultados das modelagens 2D axisimetricas por elementos finitos. Além dessas análises, foi possível verificar a variação da resistência à tração através de análises paramétricas realizadas a partir da variação da coesão e do ângulo de atrito. Os estudos apresentados reafirmam a confiabilidade das teorias da Universidade de Grenoble, que contemplam a simplicidade desejada às aplicações de cunho prático, com resultados satisfatórios em relação àqueles obtidos nos ensaios de tração. Por outro lado, as análises paramétricas realizadas indicaram a tendência de comportamento que a resistência à tração deve apresentar para diferentes parâmetros do solo. O conhecimento dessas tendências permite ao projetista avaliar os fatores de segurança sob ponto de vista probabilístico, ou seja, permite o emprego de fatores de segurança com o conhecimento da probabilidade de ruína associada. As análises probabilísticas foram traçadas a partir do emprego de funções genéricas de várias variáveis no formato FOSM (First Order Second Moment) que fornecem soluções aproximadas para o cálculo de desvio padrão quando não existe uma amostragem representativa. Ao término das análises, obteve-se como resultado, o mapa comparativo da probabilidade de ruína para os mesmos fatores de segurança empregados com base em resistências estimadas através de diferentes métodos de cálculos (Universidade de Grenoble e modelagem computacional).
Resumo:
Este estudo parte de preocupações filosóficas, teóricas e analíticas para promover exercícios de leitura e de interpretação do poema A Máquina do Mundo (1951), de Carlos Drummond de Andrade. Estabelecendo pela via ensaística a noção de ontologia da propagação, busca localizar a necessidade da ontologia no fundamento pré-paradigmático da ciência. Incorporando referências da Fenomenologia e da Hermenêutica, tenta assumir seus pressupostos e implicações para a constituição do método em Teoria da Literatura e para a definição dos campos básicos para a analítica da existência lógica, empírica e pragmática: os campos que representam as instâncias ontológicas do real, do simbólico e do imaginário. Da assunção fenomenológica e hermenêutica, passa-se a considerações sobre categorias pertencentes ao jargão literário, escolhidas por sua relação com o artefato literário em questão e correspondendo ao âmbito das três instâncias ontológicas: discute-se a Poesia como sendo um fenômeno constituinte, a Literatura como uma manifestação instituinte e o Poema como uma manifestação restituinte do signo literário A Máquina do Mundo. Em seguida, considera afetações e interferências de algumas correntes sociológicas, formalistas e antropológicas, buscando participar do diálogo sobre a possibilidade de aceitação da prática literária como uma prática de valor cognitivo, e não apenas ideológico e estético. Em seu terceiro momento, o estudo busca aplicar os pressupostos ontológicos e epistêmicos para estabelecer o limite dos espaços comparativos tornados possíveis ao poema A Máquina do Mundo e buscando o pano de fundo histórico e historiográfico do século XX a partir de suas possibilidades de relação com a obra de Drummond e segundo a orientação dos vetores dados no poema: a consolidação do veio crepuscular na tópica canônica do Novecentos brasileiro; a implicação da postura ideológica de Drummond na recepção crítica à sua obra; e, por fim, a localização posterior dos topoi cosmológicos e existenciais. Em seu último ensaio, refere-se à questão cosmológica e sua afetação sobre a postura existencial do Caminhante. Recuperam-se pontos de semelhança e de diferença entre as poéticas encontradas em Os Lusíadas, de Luís de Camões e em A Divina Comédia, de Dante Alighieri, para por fim remeter à identificação de uma continuidade temática entre o poema de Drummond e aquele que se costuma designar como pensamento originário na tradição da Filosofia ocidental. A seguir, buscam-se referências para alguns dos elementos formais do poema A Máquina do Mundo segundo sua origem no contexto da Literatura Ocidental. Consideram-se alguns traços característicos dos três seres representados (A Máquina, o Mundo, o Caminhante) e, encerrando-se a tese, procede-se a um exercício de leitura centrado especificamente no poema
Resumo:
As ferramentas computacionais estão apoiando, de maneira crescente, o processo de ensino e aprendizagem em diversas áreas. Elas aumentam as possibilidades do docente para ministrar um conteúdo e interagir com seus alunos. Neste grupo de ferramentas estão as simulações baseadas em sistemas multiagentes. Neste contexto, este trabalho tem como objetivo apresentar um ambiente de simulação do crescimento populacional de uma colmeia para o ensino de Biologia. As variáveis do sistema podem ser alteradas visando analisar os diferentes resultados obtidos. Aspectos como duração e tempo da florada das plantações, conhecidos como campos de flores, podem ser manipulados pelo aluno. A abordagem multiagentes em Inteligência Artificial Distribuída foi a solução escolhida, para que o controle das atividades do aplicativo fosse feito de maneira automatizada. A Realidade Virtual foi utilizada para acrescentar aspectos importantes do processo que não podem ser visualizados pela simulação matemática. Uma síntese da utilização de tecnologias na educação, em especial da Informática, é discutida no trabalho. Aspectos da aplicação no ensino de Biologia são apresentados, assim como resultados iniciais de sua utilização.
Resumo:
O estudo de eventos amparado em métricas contábeis pode ser considerado como aquele que investiga se os retornos anormais no mercado acionário possuem uma contrapartida no lado real, ou seja, se a performance operacional da firma sofreu modificação decorrente de um determinado evento econômico. O presente estudo tem como foco as escolhas que um pesquisador deve fazer na hora da modelagem de um estudo de evento amparado em métricas contábeis, tais como: que medida de performance utilizar, que modelo de expectativa de performance operacional servirá como benchmark, e que teste estatístico poderia detectar com mais eficiência as anormalidades. Um exemplo de estudo que testa empiricamente, nos EUA, o efeito das escolhas acima nas especificações e poder dos testes estatísticos é o de Barber e Lyon (1996). O presente trabalho pretende testar empiricamente os modelos, analisados por esses autores, nas empresas brasileiras. Para tal, foram extraídas da base de dados da Economática todas as empresas listadas na Bolsa de Valores de São Paulo BOVESPA, com dados contábeis disponíveis para os anos de 2004 a 2010, sendo que foram objeto de análise os anos de 2005 a 2010. Obtiveram-se dados para 605 empresas, e uma média de 1606 observações por métrica contábil. Foram testadas 6 medidas contábeis de performance operacional e 13 modelos de expectativa de desempenho. Para atingir o objetivo, a pesquisa foi dividida em três fases. Fase I Elaboração dos Modelos de Expectativa e formação dos Grupos de Controle; Fase II Teste do Poder explicativo dos Modelos de Expectativa; Fase III Testes para Detectar Performance Operacional Anormal. Para o caso brasileiro, pode-se dizer que a melhor medida para detectar performances operacionais anormais é o ROA2 (Ebitda/Ativo Total), já que foi a que apresentou mais modelos que atenderam a todos os testes estabelecidos, em todas as fases da pesquisa. Quanto ao benchmark, o melhor apontado pelos resultados foi o filtro indústria, classificação Economática. O modelo de desempenho defasado da firma, também apresentou resultados satisfatórios. Por fim, o teste estatístico mais apropriado para detectar performances operacionais anormais é o de Wilcoxon.
Resumo:
O desenvolvimento do projeto consistiu na modelagem da informação para gestão em arqueologia numa base de dados convergente de informação, caracterizada por um ambiente cartográfico digital, integrando mapas temáticos e base de dados alfanumérica num modelo protótipo e interativo para ajudar a integrar as informações na gestão em arqueologia, permitindo o registro, armazenamento e visualização da informação arqueológica correlacionada a mapas temáticos.
Resumo:
Este trabalho apresenta uma proposta que oferece ao arquiteto uma metodologia e um conjunto de ferramentas que auxiliará na representação gráfica de projetos de acessibilidade. O elemento base da proposta constitui-se em uma biblioteca de modelos 3D onde os equipamentos de acessibilidade, necessários em um projeto, estão modelados de acordo com a norma NBR9050. Para organizar o conhecimento da norma e guiar o arquiteto no uso da metodologia, a abordagem inclui uma taxonomia dos equipamentos de acessibilidade, utilizada para induzir o uso correto dos mesmos na modelagem 3D e para a construção de um Help integrado às ferramentas providas, auxiliando o arquiteto em suas tomadas de decisão, indicando quais são as melhores soluções propostas pela NBR9050. Para validar a proposta, um protótipo foi desenvolvido e, com este suporte, foi realizada uma avaliação com estudantes de arquitetura onde se verificou a necessidade de novas ferramentas para representação gráfica e de consulta à norma NBR9050 e a aceitação as ferramentas propostas nesta dissertação.
Resumo:
O petróleo é uma complexa mistura de compostos orgânicos e inorgânicos em que predominam os hidrocarbonetos e que apresentam contaminações variadas, entre essas os compostos de enxofre. Esses além de gerarem inconvenientes durante os processos de refino do petróleo, como corrosão nos equipamentos e envenenamento de catalisadores dos processos de craqueamento, também representam um grande problema para o meio ambiente e para a saúde da população, principalmente em relação à poluição atmosférica. Além das emissões de compostos de enxofre oriundas da própria refinaria, com destaque para os óxidos de enxofre e o sulfeto de hidrogênio, os compostos de enxofre, que não são retirados durante o refino e estão presentes nos derivados do petróleo, provocam a emissão de uma grande quantidade de poluentes na atmosfera durante o processo de queima dos combustíveis. Os efeitos dos CRE na atmosfera urbana ainda não são muito conhecidos, o que justifica um estudo mais profundo desses compostos, que além de causarem danos a saúde da população, podem influenciar na formação do ozônio troposferico
Resumo:
Os diamantes são minerais raros e de alto valor econômico. Estes minerais se formam em condições mantélicas, numa profundidade aproximada de 150 a 200 km e ascendem à superfície englobada em magmas alcalinos e carbonatíticos, nos kimberlitos e lamproitos (depósitos primários). No presente trabalho objetivou-se o estudo da geometria do Kimberlito Régis, o qual pertence à província alcalina do Brasil Meridional, localizado no estado de Minas Gerais, na cidade de Carmo do Paranaíba. Para este estudo foi realizada uma inversão gravimétrica 3D e uma modelagem utilizando dados de gravimetria e os resultados dos estudos de magnetometria (Menezes e La Terra, 2011) e CSAMT (La Terra e Menezes, 2012). As anomalias Bouguer e magnética foram então modeladas a partir de um resultado CSAMT, apresentando como resultado um conduto vulcânico com cerca de 2800 metros de profundidade e 200 metros de largura. Já o resultado da inversão mapeou um corpo com forma de cone invertido, apresentando contrastes de densidade negativos. A metodologia de integração de métodos geofísicos mostrou-se eficiente para estudos exploratórios de kimberlitos, apresentando rapidez e baixo custo quando comparados com os métodos tradicionais.
Resumo:
Novas tecnologias, entendidas como parte integrante dos ambientes midiáticos contemporâneos, ajudam a conformar novos modelos perceptivos. O surgimento e a proliferação de tecnologias de síntese e de modelagem de sons por meios eletrônicos recria a relação entre o espaço presente no filme e as referências significantes que possuímos desse espaço. Os sons destacam-se dos objetos empíricos, alargando o campo de significações e de afetações sensoriais. Ao criar novas relações entre o corpo do espectador e uma inédita paisagem sonora eletrônica, novas tecnologias de som, como parte de um processo mais amplo das mídias, demandam um maior envolvimento da plateia. Dispositivos de imersão, efeitos especiais, uma nova distribuição espacial do ambiente sonoro, maior fidelidade e potência, reproduzem o encantamento físico despertado pelos primeiros cinemas. Para analisar o surgimento de novas audibilidades, novas formas de investigar o mundo a partir dessas tecnologias e dessa atual paisagem sonora, este trabalho procura uma abordagem tríplice. Inicialmente, procuramos fazer uma descrição de cunho fenomenológico da experiência cinematográfica. Em seguida, utilizamos propostas da Teoria das Materialidades para falar das afetações físicas induzidas pelo espaço sonoro eletrônico. Por último, utilizamos a perspectiva das ciências cognitivas que nos diz que corpo, cérebro e ambiente neste caso um ambiente extremamente tecnológico fazem parte de um mesmo processo dinâmico
Resumo:
Neste trabalho apresentamos as etapas para a utilização do método da Programação Dinâmica, ou Princípio de Otimização de Bellman, para aplicações de controle ótimo. Investigamos a noção de funções de controle de Lyapunov (FCL) e sua relação com a estabilidade de sistemas autônomos com controle. Uma função de controle de Lyapunov deverá satisfazer a equação de Hamilton-Jacobi-Bellman (H-J-B). Usando esse fato, se uma função de controle de Lyapunov é conhecida, será então possível determinar a lei de realimentação ótima; isto é, a lei de controle que torna o sistema globalmente assintóticamente controlável a um estado de equilíbrio. Como aplicação, apresentamos uma modelagem matemática adequada a um problema de controle ótimo de certos sistemas biológicos. Este trabalho conta também com um breve histórico sobre o desenvolvimento da Teoria de Controle de forma a ilustrar a importância, o progresso e a aplicação das técnicas de controle em diferentes áreas ao longo do tempo.
Resumo:
Esta pesquisa avaliou a situação da tuberculose no Brasil, no período de 2001 a 2003, segundo indicadores do processo de operacionalização do Programa Nacional de Controle de Tuberculose (PNCT), e estimou os efeitos de fatores determinantes da taxa de incidência da doença. Para a avaliação utilizou-se a análise de cluster não-hierárquica, visando agrupar os municípios brasileiros de acordo com a morbidade por tuberculose (TB) e AIDS, e pelo desempenho do PNCT. Estes clusters foram mapeados, comparando-se a distribuição nos municípios, em regiões metropolitanas, municípios prioritários, e segundo o tamanho da população. O qui-quadrado de Pearson foi utilizado para testar associação nas categorias. A modelagem longitudinal multinível foi usada para identificar e estimar os efeitos dos determinantes da doença. Os agregados foram: anos, municípios e regiões metropolitanas. O modelo foi de intercepto e inclinação aleatória. Foram retidas as variáveis capazes de diminuir a variância dos níveis, pois, desta forma, explicam a variabilidade hierárquica da doença. Incluiu-se renda, densidade populacional, proporção de cura, taxa de incidência de AIDS e as grandes regiões brasileiras. A avaliação mostrou que a situação epidemiológica preocupante ocorreu nos municípios com Baixa TB e Alta AIDS, e Alta TB e AIDS. O cluster de Muito baixa TB e AIDS concentrou 50% dos municípios, o que pode configurar problemas de notificação. São 6 clusters de desempenho do programa. Bom e Bom com baixo DOTS predominando nos municípios pequenos, não prioritários e fora das regiões metropolitanas. No desempenho Moderado houve maior proporção de municípios prioritários. Clusters Regular e Fraco concentraram 10% dos municípios, com abandono de tratamento elevado e cura muito baixa. O cluster Muito Fraco caracterizou-se pela falta de dados nos indicadores de desempenho. O modelo multinível identificou a AIDS como fator impactante na tuberculose, anteriormente não encontrado em outros estudos; a interação entre renda e AIDS, e importante contribuição das regiões metropolitanas na distribuição da tuberculose, que se manifesta heterogeneamente nas grandes regiões do país. A análise discriminou municípios, e mostrou não haver associação entre maior morbidade e melhor desempenho do PNCT, retratando inadequação da vigilância à realidade epidemiológica do Brasil. O programa necessita ser reforçado, no sentido de considerar a AIDS ao estabelecer suas estratégias de controle. Ademais, os aspectos de baixa renda da população e densidade populacional, já analisados em diversas pesquisas, também se manifestaram de forma importante nestes resultados.
Resumo:
efeitos são frequentemente observados na morbidade e mortalidade por doenças respiratórias e cardiovasculares, câncer de pulmão, diminuição da função respiratória, absenteísmo escolar e problemas relacionados com a gravidez. Estudos também sugerem que os grupos mais suscetíveis são as crianças e os idosos. Esta tese apresenta estudos sobre o efeito da poluição do ar na saúde na saúde na cidade do Rio de Janeiro e aborda aspectos metodológicos sobre a análise de dados e imputação de dados faltantes em séries temporais epidemiológicas. A análise de séries temporais foi usada para estimar o efeito da poluição do ar na mortalidade de pessoas idosas por câncer de pulmão com dados dos anos 2000 e 2001. Este estudo teve como objetivo avaliar se a poluição do ar está associada com antecipação de óbitos de pessoas que já fazem parte de uma população de risco. Outro estudo foi realizado para avaliar o efeito da poluição do ar no baixo peso ao nascer de nascimentos a termo. O desenho deste estudo foi o de corte transversal usando os dados disponíveis no ano de 2002. Em ambos os estudos foram estimados efeitos moderados da poluição do ar. Aspectos metodológicos dos estudos epidemiológicos da poluição do ar na saúde também são abordados na tese. Um método para imputação de dados faltantes é proposto e implementado numa biblioteca para o aplicativo R. A metodologia de imputação é avaliada e comparada com outros métodos frequentemente usados para imputação de séries temporais de concentrações de poluentes atmosféricos por meio de técnicas de simulação. O método proposto apresentou desempenho superior aos tradicionalmente utilizados. Também é realizada uma breve revisão da metodologia usada nos estudos de séries temporais sobre os efeitos da poluição do ar na saúde. Os tópicos abordados na revisão estão implementados numa biblioteca para a análise de dados de séries temporais epidemiológicas no aplicativo estatístico R. O uso da biblioteca é exemplificado com dados de internações hospitalares de crianças por doenças respiratórias no Rio de Janeiro. Os estudos de cunho metodológico foram desenvolvidos no âmbito do estudo multicêntrico para avaliação dos efeitos da poluição do ar na América Latina o Projeto ESCALA.
Resumo:
Lonchophylla bokermanniSazima, Vizotto & Taddei, 1978 é uma espécie de morcego nectarívoro de médio porte endêmica do sudeste brasileiro. Pouco se sabe sobre sua biologia e distribuição geográfica, e por isso mesmo é classificada pela União para Conservação da Natureza (IUCN) como Deficiente de Dados. Está, no entanto, na lista brasileira da fauna ameaçada de extinção, sendo considerada Vulnerável por apresentar distribuição restrita, populações pequenas e isoladas, e estar vivenciando uma rápida destruição de seus habitats.Uma das mais importantes lacunas no conhecimento sobre L. bokermanni é o seu padrão de distribuição geográfica. Esta espécie possui uma distribuição disjunta, com uma forma na porção interior de sua distribuição, restrita aos arredores de sua localidade tipo, e uma forma com uma distribuição mais ampla, entre a Serra do Mar e o litoral. Existe a possibilidade de que a forma costeira possa corresponder a uma espécie ainda não descrita, visto que possui antebraços menores e algumas medidas cranianasdiferentes em relação a forma do interior.Nesta dissertação procuro gerar dados quantitativos mínimos necessários para determinar o status de conservação de L. bokermanni segundo os critérios da IUCN. Tendo em vista as incertezas taxonômicas, sempre que possível as análises foram feitas com três conjuntos de dados: i) todos os registros de ocorrência, assumindo que representam uma única espécie, ii) apenas com os dados da forma do interior, assumindo que representam L. bokermanni, e iii) apenas com os dados da forma costeira, assumindo que representam uma nova espécie. No primeiro capítulo foram identificadas áreas prioritárias para a busca de novas populações de L. bokermanni Essas áreas apresentam as condições climáticas e altitudinais típicas para a espécie, mantêm sua cobertura florestal, têm poucos inventários de quirópteros e estão fora da área de distribuição conhecida da espécie. O capítulo também apresenta o resultado da busca em campo por novas populações da espécie em três destas áreas prioritárias, ao sul da distribuição conhecida. No segundo capítulo a probabilidade de detecção e ocupação de Lonchophylla bokermanni foi modelada em escala regional e local, utilizando covariáveis ambientais e metodológicas que podem explicar os padrões encontrados. O grau de incerteza na distribuição conhecida da espécie foi avaliado, e estimou-se o esforço mínimo necessário para termos confiançana ausência da espécie em uma localidade. No terceiro capítulo a informação apresentada nos capítulos anteriores foi utilizada para determinar o status de conservação de L. bokermanni (segundo o critério de Extensão de Ocorrência da IUCN), discutir o estado atual de conhecimento sobre a espécie e as consequências de possíveis mudanças taxonômicas para seu status de conservação.
Resumo:
Os recentes avanços tecnológicos fizeram aumentar o nível de qualificação do pesquisador em epidemiologia. A importância do papel estratégico da educação não pode ser ignorada. Todavia, a Associação Brasileira de Pós-graduação em Saúde Coletiva (ABRASCO), no seu último plano diretor (2005-2009), aponta uma pequena valorização na produção de material didático-pedagógico e, ainda, a falta de uma política de desenvolvimento e utilização de software livre no ensino da epidemiologia. É oportuno, portanto, investir em uma perspectiva relacional, na linha do que a corrente construtivista propõe, uma vez que esta teoria tem sido reconhecida como a mais adequada no desenvolvimento de materiais didáticos informatizados. Neste sentido, promover cursos interativos e, no bojo destes, desenvolver material didático conexo é oportuno e profícuo. No âmbito da questão política de desenvolvimento e utilização de software livre no ensino da epidemiologia, particularmente em estatística aplicada, o R tem se mostrado um software de interesse emergente. Ademais, não só porque evita possíveis penalizações por utilização de software comercial sem licença, mas também porque o franco acesso aos códigos e programação o torna uma ferramenta excelente para a elaboração de material didático em forma de hiperdocumentos, importantes alicerces para uma tão desejada interação docentediscente em sala de aula. O principal objetivo é desenvolver material didático em R para os cursos de bioestatística aplicada à análise epidemiológica. Devido a não implementação de certas funções estatísticas no R, também foi incluída a programação de funções adicionais. Os cursos empregados no desenvolvimento desse material fundamentaram-se nas disciplinas Uma introdução à Plataforma R para Modelagem Estatística de Dados e Instrumento de Aferição em Epidemiologia I: Teoria Clássica de Medidas (Análise) vinculadas ao departamento de Epidemiologia, Instituto de Medicina Social (IMS) da Universidade do Estado do Rio de Janeiro (UERJ). A base teórico-pedagógica foi definida a partir dos princípios construtivistas, na qual o indivíduo é agente ativo e crítico de seu próprio conhecimento, construindo significados a partir de experiências próprias. E, à ótica construtivista, seguiu-se a metodologia de ensino da problematização, abrangendo problemas oriundos de situações reais e sistematizados por escrito. Já os métodos computacionais foram baseados nas Novas Tecnologias da Informação e Comunicação (NTIC). As NTICs exploram a busca pela consolidação de currículos mais flexíveis, adaptados às características diferenciadas de aprendizagem dos alunos. A implementação das NTICs foi feita através de hipertexto, que é uma estrutura de textos interligados por nós ou vínculos (links), formando uma rede de informações relacionadas. Durante a concepção do material didático, foram realizadas mudanças na interface básica do sistema de ajuda do R para garantir a interatividade aluno-material. O próprio instrutivo é composto por blocos, que incentivam a discussão e a troca de informações entre professor e alunos.