197 resultados para Analise de erros (Matematica)
Resumo:
As relações entre memória e justiça têm sido objeto constante de estudos. Parte desses estudos se desenvolve no campo da chamada justiça de transição. Dentro deste campo pode-se visualizar a demanda por responsabilização criminal de agentes estatais que praticaram delitos em um regime anterior. No caso da discussão sobre a transição brasileira após a ditadura militar de 1964 à 1985, é comum observar tal demanda, seja na literatura ou mesmo entre movimentos sociais e ativistas. Este trabalho pretende se inserir no debate sobre a transição brasileira, para entender quais funções a pena poderia desempenhar e, em que medida, a demanda por responsabilização criminal dos agentes da ditadura pode ser prejudicial à democracia. Pretende-se estudar, portanto, se a mencionada demanda por punição pode produzir efeitos positivos na transição brasileira. Assim, será possível analisar com maior clareza a necessidade de investir no discurso pela punição.
Resumo:
A água é um bem essencial a todos os seres vivos. Porém, o homem não tem dado o valor e atenção necessários para a preservação dessa riqueza. Por mais que o ser humano não faça a água desaparecer do planeta, ele tem contribuído e muito para o decréscimo de sua qualidade. Dentre as várias atividades antropogênicas, que tem contribuído para a poluição das águas, destaca-se a atividade industrial. A indústria têxtil, por exemplo, libera enormes volumes de dejetos, destacando-se os corantes, além deles prejudicarem a ocorrência de fotossíntese, apresentam elevada toxicidade ao meio marinho. Com isso, este trabalho visa estudar a degradação do corante Alaranjado de Metila via catálise heterogênea. Neste estudo, foram realizadas a preparação e a caracterização de partículas metálicas estabilizadas em sílica, sendo essas partículas com diferentes teores de ferro (50 %wt, 25 %wt e 5 %wt) aderido ao suporte. Após o preparo dos catalisadores realizou-se o estudo de sua eficiência frente a diferentes parâmetros como: quantidade de catalisador, temperatura e pH. Por meio dos testes realizados foi possível observar que a quantidade do catalisador influência a reação de redução do corante Alaranjado de Metila. Porém, quando se atinge o ponto de saturação, mesmo que se adicione mais catalisador não é possível aumentar a degradação. Através da variação da temperatura, observou-se que quanto maior a temperatura maior a degradação do corante. Isso pode ser explicado devido o aumento do número de colisões entre os sítios ativos do catalisador e as moléculas do corante. E por meio da variação de pH, concluiu-se que pHs ácidos permitem que a reação de redução do corante ocorra mais rápido e pHs elevados tornam a reação de degradação do corante mais lenta, porém ainda assim ocorrem de forma satisfatória. O catalisador pôde ser reutilizado por até 3 vezes, sem nenhum tratamento prévio. Os catalisadores a 50 %wt, assim como, a 25 %wt foram capazes de degradar o corante de forma eficiente, porém o catalisador a 5 %wt não se mostrou ser eficaz. Foram realizados testes sob radiação microondas e a reação de redução ocorreu de forma muito eficaz, apresentando 100% de degradação em apenas 2 minutos. Além disso, realizou-se o estudo cinético, onde segundo dados experimentais, as reações foram classificadas como sendo de primeira ordem
Resumo:
O reconhecimento de padões é uma área da inteligência computacional que apoia a resolução de problemas utilizando ferramentas computacionais. Dentre esses problemas podem ser citados o reconhecimento de faces, a identificação de impressões digitais e a autenticação de assinaturas. A autenticação de assinaturas de forma automática tem sua relevância pois está ligada ao reconhecimento de indivíduos e suas credenciais em sistemas complexos e a questões financeiras. Neste trabalho é apresentado um estudo dos parâmetros do Dynamic Time Warping, um algoritmo utilizado para alinhar duas assinaturas e medir a similaridade existente entre elas. Variando-se os principais parâmetros desse algoritmo, sobre uma faixa ampla de valores, foram obtidas as médias dos resultados de erros na classificação, e assim, estas médias foram avaliadas. Com base nas primeiras avaliação, foi identificada a necessidade de se calcular um desses parâmetros de forma dinâmica, o gap cost, a fim de ajustá-lo no uso de uma aplicação prática. Uma proposta para a realização deste cálculo é apresentada e também avaliada. É também proposta e avaliada uma maneira alternativa de representação dos atributos da assinatura, de forma a considerar sua curvatura em cada ponto adquirido no processo de aquisição, utilizando os vetores normais como forma de representação. As avaliações realizadas durante as diversas etapas do estudo consideraram o Equal Error Rate (EER) como indicação de qualidade e as técnicas propostas foram comparadas com técnicas já estabelecidas, obtendo uma média percentual de EER de 3,47%.
Resumo:
Um grande desafio da atualidade é a preservação dos recursos hídricos, bem como o correto manejo dos mesmos, frente à expansão das cidades e às atividades humanas. A qualidade de um corpo hídrico é usualmente avaliada através da análise de parâmetros biológicos, físicos e químicos. O comportamento de tais parâmetros pode convenientemente ser simulado através de modelos matemáticos e computacionais, que surgem assim como uma ferramenta bastante útil, por sua capacidade de geração de cenários que possam embasar, por exemplo, tomadas de decisão. Nesta tese são discutidas técnicas de estimação da localização e intensidade de uma fonte de contaminante conservativo, hipoteticamente lançado na região predominantemente fluvial de um estuário. O lançamento aqui considerado se dá de forma pontual e contínua e a região enfocada compreendeu o estuário do Rio Macaé, localizado na costa norte do Rio de Janeiro. O trabalho compreende a solução de um problema direto, que consiste no transporte bidimensional (integrado na vertical) desse contaminante hipotético, bem como a aplicação de técnicas de problemas inversos. Para a solução do transporte do contaminante, aqui modelada pela versão 2D horizontal da equação de advecção-difusão, foram utilizados como métodos de discretização o Método de Elementos Finitos e o Método de Diferenças Finitas. Para o problema hidrodinâmico foram utilizados dados de uma solução já desenvolvida para estuário do Rio Macaé. Analisada a malha de acordo com o método de discretização, foram definidas a geometria do estuário e os parâmetros hidrodinâmicos e de transporte. Para a estimação dos parâmetros propostos foi utilizada a técnica de problemas inversos, com o uso dos métodos Luus-Jaakola, Algoritmo de Colisão de Partículas e Otimização por Colônia de Formigas para a estimação da localização e do método Seção Áurea para a estimação do parâmetro de intensidade da fonte. Para a definição de uma fonte, com o objetivo de propor um cenário experimental idealizado e de coleta de dados de amostragem, foi realizada a análise de sensibilidade quanto aos parâmetros a serem estimados. Como os dados de amostragem de concentração foram sintéticos, o problema inverso foi resolvido utilizando-os com e sem ruído, esse introduzido de forma artificial e aleatória. Sem o uso de ruído, os três métodos mostraram-se igualmente eficientes, com uma estimação precisa em 95% das execuções. Já com o uso de dados de amostragem com ruídos de 5%, o método Luus-Jaakola mostrou-se mais eficiente em esforço e custo computacional, embora todos tenham estimado precisamente a fonte em 80% das execuções. Considerando os resultados alcançados neste trabalho tem-se que é possível estimar uma fonte de constituintes, quanto à sua localização e intensidade, através da técnica de problemas inversos. Além disso, os métodos aplicados mostraram-se eficientes na estimação de tais parâmetros, com estimações precisas para a maioria de suas execuções. Sendo assim, o estudo do comportamento de contaminantes, e principalmente da identificação de fontes externas, torna-se uma importante ferramenta para a gestão dos recursos hídricos, possibilitando, inclusive, a identificação de possíveis responsáveis por passivos ambientais.
Resumo:
Machaerium é um dos maiores gêneros arbóreos tropicais de leguminosas, com cerca de 130 espécies com distribuição predominantemente neotropical e centro de diversidade no Brasil, onde ocorrem cerca de 80 espécies. O gênero ocorre em todos os domínios fitogeográficos do país, porém a Mata Atlântica e a Floresta Amazônica possuem os maiores índices de riqueza e endemismo. As espécies do gênero estão classificadas em cinco seções infragenéricas, que se baseiam principalmente na forma e venação dos folíolos e na presença de estípulas espinescentes. Entretanto, esta classificação tem sido questionada por alguns autores, principalmente quando comparada com análises filogenéticas. Dessa forma, surge a necessidade de buscar outros caracteres que auxiliem na delimitação das espécies e que permitam uma reavaliação na classificação nfragenéricas, além de conhecer o potencial para estudos dendrocronológicos das espécies em um bioma tão rico e ameaçado como a Mata Atlântica. O presente trabalho visou estudar a anatomia do lenho de onze espécies arbóreas de Machaerium a fim de verificar a consistência das seções infragenéricas, fornecer caracteres diagnósticos para a delimitação das espécies e caracterizar as pontoações intervasculares ornamentadas, para verificar seu potencial diagnóstico no gênero em questão. Além disso, analisar a periodicidade de crescimento e a influência dos fatores climáticos no crescimento de Machaerium incorruptibile, espécie endêmica da Mata Atlântica. As amostras foram coletadas através de método não destrutivo e processadas seguindo os métodos usuais para anatomia do lenho, microscopia eletrônica de varredura e dendrocronologia. As espécies apresentaram as características anatômicas descritas para a família Leguminosae e para a subfamília Papilionoideae. A presença de faixas de parênquima não lignificado, fibras de paredes delgadas e raios irregularmente estratificados foram importantes na separação de Machaerium hirtum das outras dez espécies. As dez espécies restantes foram separadas entre si pelos dados quantitativos do lenho, principalmente diâmetro e frequência de vasos, e também pelos caracteres morfológicos das pontoações ornamentadas, como a projeção ou não das ornamentações na abertura da pontoação. A anatomia da madeira não correspondeu as seções infragenéricas tradicionalmente tratadas para o gênero. Para a dendrocronologia os dados foram analisados com uso do software ARSTAN e foi construída uma cronologia para M. incorruptibile. As cronologias foram analisadas juntamente com os dados de precipitação e temperatura, onde observou-se uma correlação significativa com a temperatura. A largura dos anéis de crescimento foi correlacionada positivamente com a temperatura média da primavera, época em que a temperatura se encontra mais amena e, negativamente com a temperatura média do verão, onde as temperaturas são mais altas. Também houve correlação negativa entre os eventos mais severos de El Niño e a largura dos anéis de crescimento, demonstrando o efeito deste fenômeno no crescimento da população arbórea, como encontrado em outras espécies tropicais.
Resumo:
Este trabalho é fruto de pesquisas sobre as relações entre Igreja e Estado no Brasil do século XIX. O objetivo é apresentar um panorama dos debates políticos em torno da Questão Religiosa - principal evento no Segundo Reinado (1842-1889) envolvendo, o clero e a política imperial -, cujas discussões percorreram o Senado, a Câmara dos Deputados, o Conselho de Estado, o poder judiciário, e a sociedade como um todo, sobretudo nos jornais, entre 1872 e 1875. O conflito aconteceu a partir da tentativa de dois Bispos de separar o culto católico das práticas maçônicas. A Questão Religiosa revela-se no Brasil como um verdadeiro embate, entre a defesa e o prolongamento dos princípios liberais da Constituição Imperial de 1824, e, o movimento mundial da Igreja católica de reação ao liberalismo, emplacado no Syllabus um documento lançado em 1864 pelo Papa Pio IX listando os 80 erros da sociedade moderna. Nessa perspectiva a dissertação divide-se em duas partes. A primeira trata do conceito de secularização e o quadro político frente à religião católica na Europa. E a segunda lida com a Questão Religiosa no Brasil e com quatro posicionamentos diferentes, sobre as relações entre os poderes político e religioso, que foram expressos na década de 1870.
Resumo:
A Amazônia exibe uma variedade de cenários que se complementam. Parte desse ecossistema sofre anualmente severas alterações em seu ciclo hidrológico, fazendo com que vastos trechos de floresta sejam inundados. Esse fenômeno, entretanto, é extremamente importante para a manutenção de ciclos naturais. Neste contexto, compreender a dinâmica das áreas alagáveis amazônicas é importante para antecipar o efeito de ações não sustentáveis. Sob esta motivação, este trabalho estuda um modelo de escoamento em áreas alagáveis amazônicas, baseado nas equações de Navier-Stokes, além de ferramentas que possam ser aplicadas ao modelo, favorecendo uma nova abordagem do problema. Para a discretização das equações é utilizado o Método dos Volumes Finitos, sendo o Método do Gradiente Conjugado a técnica escolhida para resolver os sistemas lineares associados. Como técnica de resolução numérica das equações, empregou-se o Método Marker and Cell, procedimento explícito para solução das equações de Navier-Stokes. Por fim, as técnicas são aplicadas a simulações preliminares utilizando a estrutura de dados Autonomous Leaves Graph, que tem recursos adaptativos para manipulação da malha que representa o domínio do problema
Resumo:
Esta dissertação aplica a regularização por entropia máxima no problema inverso de apreçamento de opções, sugerido pelo trabalho de Neri e Schneider em 2012. Eles observaram que a densidade de probabilidade que resolve este problema, no caso de dados provenientes de opções de compra e opções digitais, pode ser descrito como exponenciais nos diferentes intervalos da semireta positiva. Estes intervalos são limitados pelos preços de exercício. O critério de entropia máxima é uma ferramenta poderosa para regularizar este problema mal posto. A família de exponencial do conjunto solução, é calculado usando o algoritmo de Newton-Raphson, com limites específicos para as opções digitais. Estes limites são resultados do princípio de ausência de arbitragem. A metodologia foi usada em dados do índice de ação da Bolsa de Valores de São Paulo com seus preços de opções de compra em diferentes preços de exercício. A análise paramétrica da entropia em função do preços de opções digitais sínteticas (construídas a partir de limites respeitando a ausência de arbitragem) mostraram valores onde as digitais maximizaram a entropia. O exemplo de extração de dados do IBOVESPA de 24 de janeiro de 2013, mostrou um desvio do princípio de ausência de arbitragem para as opções de compra in the money. Este princípio é uma condição necessária para aplicar a regularização por entropia máxima a fim de obter a densidade e os preços. Nossos resultados mostraram que, uma vez preenchida a condição de convexidade na ausência de arbitragem, é possível ter uma forma de smile na curva de volatilidade, com preços calculados a partir da densidade exponencial do modelo. Isto coloca o modelo consistente com os dados do mercado. Do ponto de vista computacional, esta dissertação permitiu de implementar, um modelo de apreçamento que utiliza o princípio de entropia máxima. Três algoritmos clássicos foram usados: primeiramente a bisseção padrão, e depois uma combinação de metodo de bisseção com Newton-Raphson para achar a volatilidade implícita proveniente dos dados de mercado. Depois, o metodo de Newton-Raphson unidimensional para o cálculo dos coeficientes das densidades exponenciais: este é objetivo do estudo. Enfim, o algoritmo de Simpson foi usado para o calculo integral das distribuições cumulativas bem como os preços do modelo obtido através da esperança matemática.
Resumo:
Nos dias atuais, a maioria das operações feitas por empresas e organizações é armazenada em bancos de dados que podem ser explorados por pesquisadores com o objetivo de se obter informações úteis para auxílio da tomada de decisão. Devido ao grande volume envolvido, a extração e análise dos dados não é uma tarefa simples. O processo geral de conversão de dados brutos em informações úteis chama-se Descoberta de Conhecimento em Bancos de Dados (KDD - Knowledge Discovery in Databases). Uma das etapas deste processo é a Mineração de Dados (Data Mining), que consiste na aplicação de algoritmos e técnicas estatísticas para explorar informações contidas implicitamente em grandes bancos de dados. Muitas áreas utilizam o processo KDD para facilitar o reconhecimento de padrões ou modelos em suas bases de informações. Este trabalho apresenta uma aplicação prática do processo KDD utilizando a base de dados de alunos do 9 ano do ensino básico do Estado do Rio de Janeiro, disponibilizada no site do INEP, com o objetivo de descobrir padrões interessantes entre o perfil socioeconômico do aluno e seu desempenho obtido em Matemática na Prova Brasil 2011. Neste trabalho, utilizando-se da ferramenta chamada Weka (Waikato Environment for Knowledge Analysis), foi aplicada a tarefa de mineração de dados conhecida como associação, onde se extraiu regras por intermédio do algoritmo Apriori. Neste estudo foi possível descobrir, por exemplo, que alunos que já foram reprovados uma vez tendem a tirar uma nota inferior na prova de matemática, assim como alunos que nunca foram reprovados tiveram um melhor desempenho. Outros fatores, como a sua pretensão futura, a escolaridade dos pais, a preferência de matemática, o grupo étnico o qual o aluno pertence, se o aluno lê sites frequentemente, também influenciam positivamente ou negativamente no aprendizado do discente. Também foi feita uma análise de acordo com a infraestrutura da escola onde o aluno estuda e com isso, pôde-se afirmar que os padrões descobertos ocorrem independentemente se estes alunos estudam em escolas que possuem infraestrutura boa ou ruim. Os resultados obtidos podem ser utilizados para traçar perfis de estudantes que tem um melhor ou um pior desempenho em matemática e para a elaboração de políticas públicas na área de educação, voltadas ao ensino fundamental.
Resumo:
Em muitas representações de objetos ou sistemas físicos se faz necessário a utilização de técnicas de redução de dimensionalidade que possibilitam a análise dos dados em baixas dimensões, capturando os parâmetros essenciais associados ao problema. No contexto de aprendizagem de máquina esta redução se destina primordialmente à clusterização, reconhecimento e reconstrução de sinais. Esta tese faz uma análise meticulosa destes tópicos e suas conexões que se encontram em verdadeira ebulição na literatura, sendo o mapeamento de difusão o foco principal deste trabalho. Tal método é construído a partir de um grafo onde os vértices são os sinais (dados do problema) e o peso das arestas é estabelecido a partir do núcleo gaussiano da equação do calor. Além disso, um processo de Markov é estabelecido o que permite a visualização do problema em diferentes escalas conforme variação de um determinado parâmetro t: Um outro parâmetro de escala, Є, para o núcleo gaussiano é avaliado com cuidado relacionando-o com a dinâmica de Markov de forma a poder aprender a variedade que eventualmente seja o suporte do dados. Nesta tese é proposto o reconhecimento de imagens digitais envolvendo transformações de rotação e variação de iluminação. Também o problema da reconstrução de sinais é atacado com a proposta de pré-imagem utilizando-se da otimização de uma função custo com um parâmetro regularizador, γ, que leva em conta também o conjunto de dados iniciais.
Resumo:
O presente trabalho apresenta um estudo referente à aplicação da abordagem Bayesiana como técnica de solução do problema inverso de identificação de danos estruturais, onde a integridade da estrutura é continuamente descrita por um parâmetro estrutural denominado parâmetro de coesão. A estrutura escolhida para análise é uma viga simplesmente apoiada do tipo Euler-Bernoulli. A identificação de danos é baseada em alterações na resposta impulsiva da estrutura, provocadas pela presença dos mesmos. O problema direto é resolvido através do Método de Elementos Finitos (MEF), que, por sua vez, é parametrizado pelo parâmetro de coesão da estrutura. O problema de identificação de danos é formulado como um problema inverso, cuja solução, do ponto de vista Bayesiano, é uma distribuição de probabilidade a posteriori para cada parâmetro de coesão da estrutura, obtida utilizando-se a metodologia de amostragem de Monte Carlo com Cadeia de Markov. As incertezas inerentes aos dados medidos serão contempladas na função de verossimilhança. Três estratégias de solução são apresentadas. Na Estratégia 1, os parâmetros de coesão da estrutura são amostrados de funções densidade de probabilidade a posteriori que possuem o mesmo desvio padrão. Na Estratégia 2, após uma análise prévia do processo de identificação de danos, determina-se regiões da viga potencialmente danificadas e os parâmetros de coesão associados à essas regiões são amostrados a partir de funções de densidade de probabilidade a posteriori que possuem desvios diferenciados. Na Estratégia 3, após uma análise prévia do processo de identificação de danos, apenas os parâmetros associados às regiões identificadas como potencialmente danificadas são atualizados. Um conjunto de resultados numéricos é apresentado levando-se em consideração diferentes níveis de ruído para as três estratégias de solução apresentadas.
Resumo:
Compostos carbonílicos representam uma das principais classes de poluentes atmosféricos e são frequentemente reportados em estudos de poluição atmosférica de interiores. São emitidos para a atmosfera a partir de uma variedade de fontes naturais e antropogênicas. Em projeto empreendido em 2011 pela Secretaria de Estado de Educação do Estado do Rio de Janeiro,foi implementada a climatização em todas as salas de aula de todas as escolas da rede pública estadual. A escala de exposição de ocupantes à climatização, em salas de aula, não apresenta precedentes em nosso estado e representa uma tendência de todo o país. Como é um projeto recente, não há dados a respeito da qualidade do ar interior nesses ambientes e, portanto, das consequências na saúde dos ocupantes. Os procedimentos foram baseados na metodologia TO-11A da U.S.EPA. A técnica de amostragem foi por via seca com reação química, empregando-se cartuchos de sílica revestidos de octadecil (SiO2-C18) impregnados com 2,4-dinitrofenilhidrazina. As carbonilas foram analisados através de Cromatografia Líquida de Alta Eficiência com detecção por UV. Foram encontradas concentrações de formaldeído na faixa de 3,59 a 26,62 μg m-3 (interior) e 0,74 a 23,47 μg m-3 (exterior), acetaldeído na faixa de 0,19 a 259,47 μg m-3 (interior) e 1,19 a 127,51 μg m-3 (exterior), acetona+acroleína na faixa de 0,00 a 48,45 μg m-3 (interior) e 0,00 a 37,00 μg m-3 (exterior). Os valores encontrados geralmente não ultrapassaram os limites determinados por organismos internacionais
Resumo:
Diversas aplicações industriais relevantes envolvem os processos de adsorção, citando como exemplos a purificação de produtos, separação de substâncias, controle de poluição e umidade entre outros. O interesse crescente pelos processos de purificação de biomoléculas deve-se principalmente ao desenvolvimento da biotecnologia e à demanda das indústrias farmacêutica e química por produtos com alto grau de pureza. O leito móvel simulado (LMS) é um processo cromatográfico contínuo que tem sido aplicado para simular o movimento do leito de adsorvente, de forma contracorrente ao movimento do líquido, através da troca periódica das posições das correntes de entrada e saída, sendo operado de forma contínua, sem prejuízo da pureza das correntes de saída. Esta consiste no extrato, rico no componente mais fortemente adsorvido, e no rafinado, rico no componente mais fracamente adsorvido, sendo o processo particularmente adequado a separações binárias. O objetivo desta tese é estudar e avaliar diferentes abordagens utilizando métodos estocásticos de otimização para o problema inverso dos fenômenos envolvidos no processo de separação em LMS. Foram utilizados modelos discretos com diferentes abordagens de transferência de massa, com a vantagem da utilização de um grande número de pratos teóricos em uma coluna de comprimento moderado, neste processo a separação cresce à medida que os solutos fluem através do leito, isto é, ao maior número de vezes que as moléculas interagem entre a fase móvel e a fase estacionária alcançando assim o equilíbrio. A modelagem e a simulação verificadas nestas abordagens permitiram a avaliação e a identificação das principais características de uma unidade de separação do LMS. A aplicação em estudo refere-se à simulação de processos de separação do Baclofen e da Cetamina. Estes compostos foram escolhidos por estarem bem caracterizados na literatura, estando disponíveis em estudos de cinética e de equilíbrio de adsorção nos resultados experimentais. De posse de resultados experimentais avaliou-se o comportamento do problema direto e inverso de uma unidade de separação LMS visando comparar os resultados obtidos com os experimentais, sempre se baseando em critérios de eficiência de separação entre as fases móvel e estacionária. Os métodos estudados foram o GA (Genetic Algorithm) e o PCA (Particle Collision Algorithm) e também foi feita uma hibridização entre o GA e o PCA. Como resultado desta tese analisouse e comparou-se os métodos de otimização em diferentes aspectos relacionados com o mecanismo cinético de transferência de massa por adsorção e dessorção entre as fases sólidas do adsorvente.
Resumo:
Um método numérico espectronodal (END) livre de erros de truncamento espacial é desenvolvido para problemas unidimensionais de difusão de nêutrons monoenergéticos em duas versões. Na versão de problemas de autovalor, o método gera soluções numéricas para o perfil do fluxo escalar e para o fator de multiplicação efetivo (k), que coincidem com a solução analítica dominante, afora os erros da aritmética finita computacional. Na versão de fonte fxa, o método também gera soluções numéricas analíticas para o problema de fonte fixa correspondente, onde a fonte de fissão, com dependência espacial, é obtida analiticamente, a partir da reconstrução espacial do fluxo escalar gerado pelo método END para problemas de autovalor. Alguns experimentos numéricos são apresentados para dois problemas modelos a fim de ilustrar a precisão do método.
Resumo:
A tese pesquisa a problemática da inserção da Escola na Sociedade do Conhecimento no contexto da Cibercultura, considerando o distanciamento que as práticas educativas escolares vêm apresentando em relação ao universo midiático da cultura social contemporânea na qual os alunos estão inseridos. Utiliza como referencial teórico os fundamentos da Teoria da Complexidade, a partir do que ficou conhecido como paradigma complexo de Edgar Morin. Neste contexto, visa refletir sobre a necessidade de ampliar o olhar sobre o conhecimento como forma de superação do paradigma fragmentador. Parte da hipótese de que as práticas educativas, permeadas pela tecnologia, quando fundamentadas em um paradigma complexo, podem abrir novas possibilidades de superação com a promoção de mudanças pedagógicas em direção a um novo paradigma educativo mais dinâmico, criativo e integrador. Investiga se o uso da Informática na Educação pode, de fato, contribuir com as reformas necessárias à Educação em tempos de complexidade. Tendo o Colégio Pedro II como espaço de investigação, a pesquisa desenvolveu-se em duas fases e objetivou compreender o movimento do Colégio para ajustar-se e atender as demandas educacionais da sociedade contemporânea em acelerado processo de transformação e imersa na Cultura da Convergência. Analisa a incorporação e apropriação das tecnologias no processo de escolarização pelo corpo docente do Colégio e como isto tem se dado na prática da instituição. A pesquisa qualitativa de caráter exploratório tem como cenário de investigação os laboratórios de Informática Educativa (espaços multimídia com conexão a Internet) nos diferentes CAMPI do 1 e 2 Segmentos do Ensino Fundamental e nas atividades desenvolvidas, através da atuação dos professores de Informática Educativa, em parceria ou não, com os professores de outras disciplinas. Para analise dos dados foram utilizados conceitos da Teoria da Complexidade, como por exemplo, as categorias provenientes do Tetragrama Organizacional e os Operadores da Complexidade. O material empírico extraído da análise documental e das entrevistas sobre as práticas realizadas nos laboratório do Colégio resulta em mapeamento das diferentes formas de estruturação do trabalho pedagógico dos laboratórios, análise do ciclo docente: planejamento, execução e avaliação. A pesquisa de campo exploratória, inicialmente de caráter descritivo, passa a enfatizar, progressivamente, o caráter qualitativo da pesquisa, objetivando assim, oferecer maior clareza e visibilidade ao real estado da Informática Educativa para o Colégio Pedro II. A pesquisa desenvolvida analisa a realidade escolar no ponto onde estamos, que é a prática da interdisciplinaridade em direção a transdisciplinaridade. A transdisciplinaridade, em vários aspectos, ainda representa uma utopia pedagógica no contexto formal do sistema educacional brasileiro que estrutura-se de modo visivelmente fragmentado.